欧盟委员会发布了一份人工智能(AI)道德准则,提出了“值得信赖”的人工智能应当满足的7个条件。下一阶段,欧盟委员会将启动AI道德准则的试行,邀请工业界、研究机构和政府机构对该准则进行测试和补充。
《经济学人》曾表示,美国和中国已经是毋庸置疑的AI超级体,而欧洲可以率先制定规则来限制AI系统可能造成的危害。许多人希望欧洲能建立AI行业的全球标准,就像其建立的新数据隐私法GDPR一样。
1
七大条件
欧盟在技术监管方面占据全球领先地位,去年引入了具有里程碑意义的数据隐私法GDPR,同时瞄准大型科技公司的反垄断行为以及避税问题,而目前人工智能的道德准则是欧盟最新的监管方向。
欧盟召集了52名专家组成的小组,提出了他们认为未来AI系统应该满足的七大条件:
受人类监管:AI不能侵犯人类的自主性。人类不应该被AI系统操纵或威胁,人类应该能够干预或监督AI的每一项决定。
技术的稳健性和安全性:AI应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。
隐私和数据管理:AI收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
透明度:用于创建AI系统的数据和算法应该是可访问的,应确保AI决策的可追溯性。换句话说,运营商应该能够解释他们的AI系统是如何做出决策的。
多样性、非歧视性和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该有任何偏向。
社会和环境福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
问责制:应建立机制,确保对AI系统及其成果负责和问责。
目前这些要求不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟希望成为AI伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。
今年夏天,欧盟委员会将与相关方合作,确定可能需要额外指导的领域,并确定如何更好地执行和核查。2020年初,专家组将纳入试点阶段的反馈意见。
2
AI伦理探索
最早关于机器人的伦理规定是科幻作家阿西莫夫上世纪设计的防止机器人失控的“机器人三定律”:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。
但是随着人工智能不断发展,“机器人三定律”中的许多问题都有待进一步细化。
全球知名的艾伦人工智能研究所首席执行官埃齐奥尼,两年前在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。
在过去的两年时间里,有大量的AI研究人员开启对AI伦理的思索。
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft 和 IBM等几家全球大公司共同成立了 Partnership on AI,研究和制定人工智能技术的最佳实践,促进公众对人工智能的理解,并作为一个开放平台来讨论人工智能对人和社会的影响。
2017年7月,中国政府发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力
去年年底,加拿大和法国联合成立了一个国际小组,讨论如何负责任地使用人工智能。
目前,在国家层面上关于AI的规则制定并不平衡,有的国家已经优先制定了机器人和人工智能的规则,甚至还通过立法来管理自动驾驶汽车,但大多数国家还没有着手去做。
欧盟委员会指出,技术、数据和算法不分国界,为此,其将继续加强同日本、加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合讨论和倡议中发挥积极作用。
IBM欧洲主席页特(Martin Jetter)对此表示,欧盟委员会此次出台的指导方针“为推动AI的道德和责任制定了全球标准”。
上一篇:从数据中心到无服务器,云计算这样进化是否可行?
下一篇:工业机器人自动化程度对中国智能制造2025有何重要意义?
推荐阅读最新更新时间:2024-05-03 03:32