2015/7/13 下午12:06:19 星期一
当前位置: 主页 > 平步青云 >

谷歌AI主管:个人反对使365体育:用机器学习来实现自主武器研发
时间:2019-05-31 15:54

摘要:本文由人工智能观察编译译者:Sandy一个月前,谷歌进行了重组,大神JeffDean成了新晋掌门人。最近,谷歌还将其研究部门重命名为GoogleAI。 本周二,谷歌在其开发者大会上又推出了很多新的特性以及更新,包括为手机开发者提供的MLKit、TPU3.0以及升级版谷歌助手。对此,JeffDean分

本文由人工智能观察编译

译者:Sandy

一个月前,谷歌进行了重组,大神Jeff Dean成了新晋掌门人。最近,谷歌还将其研究部门重命名为Google AI。

 

本周二,谷歌在其开发者大会上又推出了很多新的特性以及更新,包括为手机开发者提供的ML Kit、TPU 3.0以及升级版谷歌助手。对此,Jeff Dean分享了自己对AI未来的看法。他看到了人工智能创造新产品的机会,并找到了人类之前从未想过的问题解决方案。

通用智能AI的出现

如今,大部分人工智能都是为了完成一个单一任务,比如讲句子从一种语言翻译成另一种语言,365体育在线投注导航,但Dean表示他希望谷歌可以创建更多的AI模型,以完成多个任务并实现一种“关于世界的常识的推理”。

 

他说:“未来,365体育投注,你会看到我们更多地转向可以做很多任务的模型,然后在此基础上总结经验,这样当我们想要训练一个模型去做其他事情时,就可以建立在现有技能和专业知识之上。”

 

比如,如果机器人被要求捡东西东西,它会理解手部的动作,重力如何工作以及对世界的其他理解。“我认为这将是未来几年的一个重要趋势。”

AutoML的偏见和不透明的挑战

根据不同的问题对象,AutoML,谷歌的人工智能可以创建出其他的AI模型,要么令人兴奋,要么令人恐惧。

 

训练机器的机器肯定会让反对人工智能的人感到恐惧。但谷歌云首席科学家李飞飞说,AutoML降低了高端开发人员甚至是普通人创建定制AI模型的难度。

 

对Dean来说这是令人兴奋的,因为它可以帮助谷歌“自动解决问题”,但AutoML的使用也带来了独特的问题。

“由于我们使用的是比传统手工编码软件更多的系统,这给我们带来了很多挑战,我们正在处理这些问题,”他说。“所以,如果用于训练的数据中存在偏见问题,那么学习的机器学习模型本身会使这些偏见继续延续下去。由此,我们要做的工作有很多,比如,如何培训没有偏见形式的机器学习模型。”

 

另一个挑战:如何使用AutoML正确地设计安全关键系统,为医疗保健等行业创建AI。数十年的计算机科学已经建立了最佳实践,以便对这些系统进行手工编码,而机器制造机器也需要这样做。

 

Dean表示,在对狗进行分类时犯错是一回事,在安全关键系统中出错又是另一回事。“我认为这对我们来说是一个非常有意义且重要的应用方向,特别是当我们开始在更安全的关键系统中进行机器学习时,这些都会对医疗保健或自动驾驶汽车等项目产生影响。”

安全关键型AI需要更多的透明度

周二,谷歌研究人员发表的一篇文章,解释了AI为什么对患者做出某些决定,医生能够看到医疗记录建议背后的原理。未来,Dean希望开发一个可以与医生进行简单交互的AI模型,通过提问,可以得到答案。

 

Dean表示,现在人工智能在谷歌产品中的实行会经历一个内部审查过程。而且,谷歌也在制定一套评估AI模型中是否存在偏见的指导方针。

 

“用户所希望的,本质上与安全审查或产品新功能的隐私审查一样,我们也希望ML公平审查是将机器学习集成到我们产品中的一部分。”

拒绝AI武器装备

对于AI武器而言,Dean表示他不认为谷歌应该从事制造自主武器的生意。今年3月,有消息传出谷歌正在与美国国防部合作,改进对无人机收集到的镜头的分析。

 

“随着社会开始发展更强大的技术,机器学习和人工智能会遇到许多道德和伦理问题,”他说。“我个人已经签署了一封信,大约六个或者九个月以前的一封公开信,不记得具体时间,但已明确表示我反对使用机器学习来实现自主武器。我想大多数人都会对此感到不安。”