人工智能
Deepmind创始人等顶尖AI专家承诺抵制AI自主武器
千家网 | 来源:千家网 浏览次数:1247
摘要:

人工智能(AI)有可能通过预测自然灾害、阻止人口贩运和诊断致命疾病来拯救生命。

人工智能,为人类谋福祉

人工智能(AI)有可能通过预测自然灾害、阻止人口贩运和诊断致命疾病来拯救生命。不幸的是,它也有可能夺取生命。设计致命自主武器的努力已经在进行中,这些武器使用人工智能来决定是否要杀死一个人。

周三,“生命研究所”(FLI)——一个专注于利用科技造福人类的组织——发布了一项承诺,谴责发展致命的自主武器,并呼吁各国政府阻止它。

FLI总裁Max Tegmark在一份新闻稿中说:“人工智能有巨大的潜力来帮助这个世界——如果我们对它的滥用进行污名化和预防的话。”“自动决定杀人的AI武器和生化武器一样令人厌恶和不稳定,应该以同样的方式处理。”

签署承诺,抵制AI自主武器

170个组织和2464个个人签署了这一承诺,承诺“既不参与也不支持发展、制造、贸易或使用致命的自主武器”。该承诺的签署者包括OpenAI的创始人埃隆?马斯克、Skype创始人贾安?塔林和著名的人工智能研究员斯图尔特?拉塞尔。

谷歌旗下DeepMind的三位联合创始人(Demis Hassabis、Shane Legg和Mustafa Suleyman)也签署了这一承诺。DeepMind是谷歌的顶级人工智能研究团队,该公司最近在与美国国防部的合作中,将自己置于致命的自动武器争议的十字路口。  今年6月,谷歌发誓不会更新国防部的合同,后来又发布了新的人工智能发展指导方针,其中包括禁止制造自主武器。签署FLI承诺,可能进一步证实该公司对致命自主武器的公开立场。

言过于行?

目前尚不清楚这一承诺是否真的会导致任何决定性的行动。联合国的26个成员国已经批准了一项全球禁止使用致命自主武器的禁令,但包括俄罗斯、英国和美国在内的几位世界领导人还没有加入。

这也不是人工智能专家第一次联合起来签署反对发展自主武器的承诺。然而,这一承诺确实有更多的签名者,其中一些新增加的名字在人工智能领域是相当大的名字(如:DeepMind)。

不幸的是,即使世界上所有的国家都同意禁止使用致命的自动武器,这也不一定会阻止个人甚至政府继续秘密开发武器。当我们进入人工智能的新时代时,我们似乎别无选择,只能希望优秀的玩家数量超过作恶的玩家。

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn

中国电子商会 China Electronics Chamber of Commerce
京ICP备13044805号
电话:010-68256762  E-mail:service@cecc.org.cn
Copyright CECC.org.cn All rights reserved
地址:北京市亦庄经济技术开发区博兴六路17号院1号楼3层

京公网安备 11011502005504号