人工智能
欧洲正在寻求限制人工智能在生活中的使用范围
互联网 | 来源:互联网 浏览次数:646
摘要:

根据正在拟议的欧盟人工智能条例,将禁止使用面部识别进行监视,或使用操纵人类行为的算法。

  根据正在拟议的欧盟人工智能条例,将禁止使用面部识别进行监视,或使用操纵人类行为的算法。

  这些内容广泛的提议在正式发表之前被泄露,同时也承诺对他们认为高风险的人工智能制定严厉的新规定。

  这包括警察和招募人员使用的算法。

  专家表示,这些规定含糊不清,存在漏洞。

  在军队中使用人工智能是免税的,当局为了维护公共安全而使用的系统也是免税的。

  建议禁用的人工智能系统包括:

  设计或使用以操纵人类行为、意见或决定的方式…使某人做出不利于自己的行为、意见或决定

  人工智能系统用于不加区分的监视,以一种一般化的方式应用

  用于社会评分的人工智能系统

  利用信息或预测,利用一个人或一群人针对其弱点的行为

  欧洲政策分析人士丹尼尔·鲁弗(Daniel Leufer)在推特上表示,这些定义很容易解释。

  “我们如何确定什么对某人不利?他写道:“谁来评估这个?”。

  对于被视为高风险的人工智能,成员国必须实施更多的监督,包括需要任命评估机构来测试、认证和检查这些系统。

  而任何开发违禁服务或未能提供正确信息的公司,都可能面临高达其全球收入4%的罚款,类似于违反GDPR的罚款。

  人工智能的高风险示例包括:

  在紧急服务调度中确立优先权的系统

  决定进入或分配人员进入教育机构的系统

  招聘算法

  评估信用价值的人

  进行个人风险评估的方法

  犯罪预测算法

  Leufer补充说,这些提议应该“扩展到包括所有公共部门的人工智能系统,不管它们的指定风险水平如何”。

  “这是因为人们通常无法选择是否与公共部门的人工智能系统进行交互。”

  除了要求新的人工智能系统有人监督外,欧盟委员会还提议,高风险人工智能系统有一个所谓的关闭开关,可以是一个停止按钮,也可以是其他一些程序,在需要时立即关闭系统。

  Clifford Chance的律师Herbert Swaniker表示:“人工智能供应商将非常关注这些提议,因为这需要人工智能设计方式的根本转变。”

  草率而危险

  与此同时,伦敦大学学院(universitycollege London)数字权利与监管讲师迈克尔维勒(Michael Veale)强调了一项条款,该条款将迫使组织在使用深度伪造(deepfakes)时进行披露,这是一种特别有争议的利用人工智能制造假人或操纵真人图像和视频的行为。

  他还告诉BBC,这项立法主要是“针对那些向学校、医院、警察和雇主出售人工智能技术的供应商和顾问——通常是无稽之谈”。

  但他补充说,使用人工智能“操纵用户”的科技公司可能也必须改变他们的做法。

  有了这项立法,欧共体不得不在确保人工智能被用于它所称的“工具”之间走一条艰难的钢丝。以增进人类福祉为最终目标”,同时确保欧盟国家不会停止与美国和中国在技术创新方面的竞争。

  它承认人工智能已经影响了我们生活的方方面面。

  曾为欧盟委员会《人工智能白皮书》撰稿的欧洲非营利法中心(European center for Not-for-Profit Law)对BBC表示,拟议的立法“有很多模糊之处和漏洞”。

  “欧盟对高风险和低风险的二元定义方法,充其量是草率的,最坏的情况是危险的,因为它缺乏当今已经存在的复杂人工智能生态系统所需要的背景和细微差别。

  “首先,委员会应在以权利为基础的框架内考虑人工智能系统的风险——即它们对人权、法治和民主构成的风险。

  “第二,欧盟委员会应该拒绝过于简单化的低高风险结构,并考虑基于人工智能风险水平的分层方法。”

  细则可能在下周正式公布前再次发生变化。而且在未来几年内,它也不太可能成为法律。

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn

中国电子商会 China Electronics Chamber of Commerce
京ICP备13044805号
电话:010-68256762  E-mail:service@cecc.org.cn
Copyright CECC.org.cn All rights reserved
地址:北京市亦庄经济技术开发区博兴六路17号院1号楼3层

京公网安备 11011502005504号