2015/7/13 下午12:06:19 星期一
当前位置: 主页 > 周而复始 >

脸书打造包容性 AI,365体育网投: 拿掉人脸识别的有色眼镜
时间:2019-05-31 20:21

脸书打造包容性 AI,拿掉人脸识别的有色眼镜

时间:05-07 15:44 阅读:4653次 转载来源:搜狐财经

原标题:脸书打造包容性 AI,拿掉人脸识别的有色眼镜

人们越来越倚重人工智能解决关键任务,因此机器学习是否具备包容性(Inclusive),能够良好兼容各种多元属性,成了重要的课题,脸书在研发其智能视讯装置Portal时,发现人工智能进行人脸识别时,对肤色以及性别存在偏见,因此发展出一个框架以打造具包容性的人工智能,并扩大应用到内部其他专案中。

脸书在F8大会分享了他们发展包容性人工智能的历程,事件就发生在脸书AR/VR技术业务主管Lade Obamehinti身上,该团队在Portal早期测试阶段,发现其人工智能相机作出了出乎意料的判断。由于Portal的相机会透过电脑视觉计算,根据人们在房间中的移动与分布,动态构图找出最适合容纳多个主体的视野,但是在某一次Lade Obamehinti说话且做出丰富的手势,Portal的人工智能并没有焦点放在Lade Obamehinti这个明显的兴趣点上,而是将镜头聚焦在另一名白人男同事身上。

Lade Obamehinti是来自奈及利亚的优秀女性,他发现,人工智能模型之所以会对不同的人,做出不一样的表现,部分原因在于用来训练模型的资料集存在限制与缺陷,由于人类天性就会对事物进行分类,如果不加以控制,则会造成人工智能系统出现偏差,而且还可能会放大人性负面的部分。为此脸书发展出一套包容性人工智能开发程序,其提供人工智能开发人员可依据的指南,帮助研究人员设计资料集、测量产品效能,以及测试包容性的系统。

当脸书把包容性考虑进人工智能的训练时,发现原本训练Portal智能相机模型的资料集,肤色以及性别的样本分布不均,而样本偏差会使得训练出来的人工智能服务,不完全适用于真实世界,因此Portal团队重新调整了资料集,使用更加平均的性别、年龄和肤色样本,并在验证以及训练模型时,遵守包容性人工智能指南,以最大程度降低Portal智能相机模型可能出现的风险。

Lade Obamehinti为脸书建立了一套程序,来描述包容性人工智能,其包含使用者研究、演算法开发以及系统验证,365体育投注注册会员,使用者研究用来分析产品功能在不同的人出现的各式回应,演算法则是关于资料集设计、训练与评估,而系统验证则专注于效能表现以及各项体验上。在过去一年中,脸书内部开始将包容性人工智能程序,导入到开发流程中,用来确保脸书与Instagram的照片滤镜,在各式肤色与因素下都能良好运作,Messenger中的AR特效,在各种脸部形状与肤色都能正确的表现。

但脸书也提到,并非每种应用都能应用包容性流程,因为在某些领域上,整个行业都没有足够具代表性的资料集,为了解决这样的问题,脸书正在推动建立全球使用者研究,365体育投注注册会员,将包容性人工智能测试扩展到声音上,脸书表示,声音资料集需要考量方言、年纪以及其他更多的属性,才足以建立能够听懂不同人们说话的人工智能。

机器学习的包容性议题持续受到关注,特别是当机器学习的应用影响人们权益或是生命时,像是去年美国警方开始使用AWS Rekognition的人脸识别服务,美国公民自由联盟(American Civil Liberties Union, ACLU)指称系统存在识别误差,可能对无辜的人造成负面影响。另外,Google与美国军方合作的Maven计画,以人工智能识别无人机拍摄的物体,并以导弹摧毁这些物件,电子前线基金会(Electronic Frontier Foundation,EFF)则表示,人工智能仍处于难以控制的阶段,可能造成不必要的伤害。

也越来越多的学者提出对于人工智能的不信任,莱斯大学电脑科学副教授Genevera Allen发现,科学研究使用机器学习分析资料,但由于找到的模式只会存在于资料集,而非来自真实世界,将模式直接套用在真实世界,则会得到错误的结果。返回搜狐,查看更多

责任编辑:

声明:本文由搜狐财经企业号发布,依据企业号用户协议,该企业号为文章的真实性和准确性负责。创头条作为品牌传播平台,只为传播效果负责,在文章不存在违反法律规定的情况下,不继续承担甄别文章内容和观点的义务。

阅读人数越多,红包金额越大

分享后请尽快邀请朋友阅读,帮你抢红包

朕知道了