在影视作品里,人工智能杀人似乎是一件很平常的事,但归根结底那是人类的想象,想象并不会针对影响到人类的生命安全,可是一旦想象变成了现实,那可就不好说了。
人工智能杀人和人工智能伤人并不是相同的概念,人工智能在通过自身能力完成任务的过程中出现了对人类的伤害,这本质上是一种“误伤”,但如果人工智能有了“主动”的伤人意愿,那事情就完全不同了。近期,埃及航空公司的波音737max8飞机发生的坠机事件,究其原因,就是一起人工智能在主动伤人事件,尽管有相关调查人员表示,此次人工智能的行为可以被认为是“无意识”状态下产生的,但外界普遍认为,这是人工智能杀人的一个危险信号。
由于埃及航空公司的事故飞机刚刚找到黑匣子,所以目前无法准确判断坠机原因,但普遍分析认为,此次事故与2018年10月28日在印尼首都雅加达发生的波音737max8飞机坠毁事故“极其相似”,外界分析人士从雅加达坠机的最后11分钟通话录音分析出了有关所谓“人工智能杀人”的相关细节。
雅加达坠机发生在2018年10月28日,该航班的编号为“JT611”,解密的黑匣子记录了这架起飞之后13分钟即从空中坠落的航班在坠落前有11分钟的时间,人类驾驶员在与人工智能进行“搏斗”。
飞机的自动驾驶取代了人类飞行员的控制权,而将这架本来应该拉高的飞机保持在了低空飞行的状态。人类驾驶员凭借多年的飞行经验判断除了异常,试图通过人工干预将飞机拉高,因此拼命的拉扯操纵杆,想把飞机从俯冲状态改成拉高状态,尽管飞行员经过了长达11分钟的努力,但最终还是无济于事,人工智能驾驶系统一直牢牢地掌握着飞机的控制权,最终人工智能驾驶系统和飞机上的所有人类一起坠落地面。尽管相关技术人员试图找出人工智能出现这种情况的合理解释,但至少从事情本身来看,人工智能无情的谋杀了飞机上的所有人类。
更令人担忧的一种观点是:人类已进入了5G时代,随着5G技术的日臻成熟,人工智能杀人也将越来越“熟练”和频繁。
这种观点认为,人工智能杀人将可能分为三个阶段:
1、过失杀人;
2、模糊杀人;
3、故意杀人。
在5G技术发展的初期,人工智能将具有较为完备的思维能力和计算能力,但缺乏创造能力。
在这一阶段,人工智能对人类造成的伤害将主要来源于自动驾驶领域,此前中国质量新闻网智能频道曾经发布过一篇有关2018年3月22日,一辆测试中的无人驾驶汽车以每小时60公里的速度撞上一位正在违反交通规则横穿马路的行人的事件,当时无人驾驶汽车并未减速,这位行人被撞成重伤,最终不治身亡。
相关事件的判决结果令人大跌眼镜,相关技术公司被判无罪。
除此之外,在这个阶段的人工智能如果被运用到外科手术领域,也不可避免的会有伤人的情况出现。在这一阶段,人工智能对人类造成的伤害主要是设计方面出现了问题,导致人工智能在遇到特殊情况时无法做出应有的判断和处理。毕竟程序代码都是由人编写的,很多程序都在一定程度上存在不足,程序越是复杂,存在的漏洞和不足的可能性就越大,尽管程序可以通过多重测试来发现并修改漏洞,但任何事物都不可能完全不出现任何问题,尤其是看上去就不那么靠谱的人工智能驾驶和人工智能手术等。
随着相关技术的发展,人工智能“杀人”将会变得模糊化,人工智能的知识积累能力比人类快百万倍以上,已经横扫所有人类围棋高手的“阿尔法狗”就是最好的证明,通过数以百万计的复盘,它强大的学习能力完全超越了人类。
无人驾驶汽车仍旧是人工智能的技术发展的先锋,但是不会仅仅拘泥于一条单一的道路,一种类似于阿尔法狗,原理就是希望通过计算机的强大计算能力,将所有可能发生的事情都预先计算出来,让无人驾驶汽车甚至所有的人工智能都知道在遇到各种情况的时候应该怎么处理。很显然,去年3月22日发生的那场车祸很好的证明了这种发展道路的局限性,因为车辆无法准确的判断在行人违反交通规则的时候自己应该如何处理,这也正是造成无人驾驶车辆最终撞上了行人并导致行人伤重不治的根源。
另一种就是所谓的“自主学习”。在数据积累到已成程度之后,人工智能将可以根据这些数据进行有自主能力的设定及思考。比如积累的数据大多都是开车的速度比较快,喜欢超过前方车辆,只要看到行人或障碍物就会远远的开始减速,此时人工智能驾驶系统会改变自己的数据,将自己的准行车准则向这些数据靠拢,以达到更舒服的驾驶感。
在自主学习的人工智能中,就很有可能出现“模糊杀人”。比如车辆积累的数据中,遇到闯红灯的行人,会理所当然的选择不避让,而是抢在行人前面冲过绿灯,人工智能对这样的情况进行了“自主学习”之后,遇到行人时,就会加速在行人面前冲过去,一旦这个行人也是个固执的家伙,那问题就可能变得很严重,人工智能控制下的车辆不减速,行人也不避让,惨剧将无法避免。
虽然这是一种极端的情况,但这种情况是完全有可能存在的,那么一旦造成了人员伤亡,人工智能是否有责任,将会变得很难以界定。
如果说“模糊杀人”还只是难以界定法律责任,人工智能的“故意杀人”问题就变得更加严重了。尽管这样的情景经常出现在科幻电影中,但绝大部分人都不愿意相信这真的会在现实中发生。
著名的“机器人三定律”中是这样规定机器人的行为准则的:
1:机器人不得伤害人,也不得见人受到伤害而袖手旁观;
2:机器人应服从人的一切命令,但不得违反第一定律;
3:机器人应保护自身的安全,但不得违反第一、第二定律。
现在或者不就之前的过去,我们看待这三项规定的时候可能还觉得是理所当然的,但试想一下,如果机器人有了情感,机器人也被情感所左右,那么它们还是完整意义上的“机械”吗?如果不是了,那么它们又怎么可能去完全机械的执行人类为他们设定的规则?
2018年,日本已经有研究团队宣布研发成功并且量产了“会对你的情绪做出反应,尽其所能让你充满快乐,让你重新充满活力”的机器人,中国在这方面的研究也已经取得了一定的进展,甚至“情感计算”能力被引入了一些社交网络中用来“更好地把握观众情绪”。
尽管很多人仍然觉得,机器掌握的只是计算能力,无法掌握人类情感,然而,从生物学或生理学的角度来讲,“情感”其实也是一种复杂的算法。5G时代,当情感算法成为现实的时候,机器人哪怕是拥有了最初级的情感,那么一旦人类伤害了它们,它们真的能坚守“机器人三定律”而不伤害人类吗?
这个问题的答案,并不需要很复杂的情感去解答,同时也足够令人类警惕。
上一篇:人工智能的道德规范,必须越来越多地考虑潜在结果
下一篇:3D打印将给几乎所有产品的制造方式带来革命性变化
推荐阅读最新更新时间:2024-05-03 03:31