“人工智能技术目前的发展已经使其在几年内、而不是几十年内成为可行——即使法律上不可行事实上也是可以实现的,这样的情况危险极大,”这封公开信说。媒体报道说这封信将在布宜诺斯艾利斯举办的人工智能国际联合大会上宣读。“自动武器被称为继火药、核武器之后的第三次战争革命。”
这封公开信把无需人类命令便能够选择并攻击目标的人工智能武器,与无人机和巡航导弹等人类选择打击目标的武器有所区别。这封信中还说,虽然对军队官兵来说,人工智能技术可以令战区更加安全,但这种不受人类控制的武器会引发“全球性人工智能军备竞赛”。
“它们流入黑市或落入恐怖分子和独裁者之手不过是时间问题,”这封信的署名者们警告道。“人工智能可以通过多种方式使战场对人类、尤其是平民来说更加安全,而不必通过创造杀戮新工具这种方式。”
英国媒体7月27日发表题为《科学家提醒,要警惕杀人机器人军备竞赛》的报道称,科技界的一些大人物呼吁全球禁止“杀人机器人”,他们提醒说,越过这一界限,将开启新一轮全球军备竞赛。
人工智能领域的1000多位专家在一封公开信中表明了干预态度。在这封信上署名的包括宇宙学家斯蒂芬·霍金教授、特斯拉公司首席执行官埃隆·马斯克,以及苹果公司合伙创始人史蒂夫·沃兹尼亚克。
尽管“机器人士兵”仍处于“纸上谈兵”阶段,可是计算能力和人工智能的迅速进步,增加了军方在20年内把机器人士兵派上战场的可能性。
这封请愿书于28日在布宜诺斯艾利斯举行的国际人工智能联合大会上递交。该信警告说,继火药与核武器的发明之后,可以独立确定和袭击目标且不需人类进行任何干预的武器系统的开发,将会带来“第三次战争革命”。
它描绘了未来冲突的可怕情形,类似于系列电影《终结者》中的场景。
该信说:“对于执行暗杀、破坏国家稳定、征服民众或选择性杀死特定民族等任务,自主式武器是理想选择。”
“因此,我们认为,人工智能军备竞赛对人类而言是无益的。人工智能可以让战场变得对人类——尤其平民——而言更安全的方式有许多种,不用创造新的杀人工具。”
联合国也担心其所谓的“致命性自主式武器”的开发,以至于它去年召开了有史以来第一次此类会议,讨论新科技带来的风险。
加利福尼亚大学伯克利分校的人工智能领域专家、该信的署名者之一斯图尔特·拉塞尔之前曾警告说,机器人武器系统可能使得人类“毫无防御能力”。
该信是今年第二封猛烈抨击将人工智能引入到战场上的信。不过,在呼吁禁止这些武器系统方面,这封最新的请愿书强硬有力得多。该信是由生命未来研究所协调写成的。
生命未来研究所是由包括Skype公司合伙创始人扬·塔林在内的众多志愿者于2014年创建的。马斯克和霍金均是该研究所科学顾问委员会的成员。
自主式杀人机器人的想法对许多军方人士而言具有吸引力,因为它们提供了重要的对敌优势,其部署不会令本国部队的任何人处于危险中,而且长期来看,比起必须支持和保护人员的先进武器,如战斗机,它们的成本应该更加低廉。
五角大楼是机器人研究的最大支持者之一。2013年,其智库之一海军研究处发给塔夫茨大学、布朗大学、伦斯勒理工学院、乔治敦大学和耶鲁大学等多所大学的研究人员一笔研究经费,高达750万美元,让其研究如何能教会自主式机器人分辨对错。
西方军事规划者担心,如果他们没能致力于研究这一技术,那么他们可能会将新一轮军备竞赛的领导权让给潜在对手,比如中国。
上一篇:RS现供应优质Faulhaber直流电机
下一篇:电梯需要多智能才不再“吃人”
推荐阅读最新更新时间:2024-05-02 23:51