40胜的时候,你们可能觉得是个围棋天才在玩;
50胜的时候,你们开始怀疑它是新的人工智能,或者是AlphaGo的升级版;
60胜的时候,它说自己是AlphaGo。
40胜的时候,你们看新闻看热闹,觉得这事很有趣;
50胜的时候,你们开始害怕为什么有个怪物在横扫人类的尊严,ta究竟是什么来头?
60胜的时候,你们露出了“哈哈,不就是个人工智能嘛”的微笑,视图掩盖自己内心的那份不安。
不是恐怖谷,胜在恐怖谷
究竟是什么原因让人们在短短2天时间内情绪发生如此大的变化?首先,我要给各位普及一个理论,它叫“恐怖谷”或者叫“恐怖谷效应”。
2003年的某个深夜,地点日本大阪大学,当时正在从事机器人研究工作的科学家卡尔·麦克多曼正在办公室里加班做研究。大约到凌晨1点的时候,办公室里的传真机突然自己启动,打印出了一份传真,是同事传给他的。这份传真是一份完成于35年前的研究论文,里面提到如果机器人做得过于像人的话,就会让人产生反感。
麦克多曼对这份日本论文非常感兴趣,因为当时的他也在研究高仿真机器人,正好和他的研究方向一致。于是乎他很快就把它翻译成了英文,并把这种“越像人越反感”的现象称之为“恐怖谷”。之所以称其为谷,是因为在高感度与逼真性的XY曲线上,当机器人基本上快接近人的时候会出现一段“惊心动魄”的好感度下降谷值阶段,在这个阶段,物体跟人很像但却不是人,极易让人对此产生反感,甚至感到恐怖。
例如,尸体、僵尸、假体等,他们的造型跟真人一模一样,但是不同地方在于他们都不是真正意义上的人了。尸体让人感到恶心,僵尸让人感到恐怖,假体让人觉得厌恶,因为人类害怕死亡、害怕疾病、害怕无法与对方进行感情上的交流。但只要让逼真性再提高一点,好感度瞬间就会提高起来。这就是恐怖谷效应。
让我们再回到本次讨论的主人公master,这个连挫60围棋高手的人工智能。在1月3日之前,master是在线围棋赛场上的绝顶高手,不断地击败围棋高手,让人觉得可能是某个围棋职业9段高手换了小号在打比赛一样。但是随着连胜数量的不断提高,人们开始感到困惑,这个闻所未闻的master到底是谁,它是AlphaGo吗?在连胜数接近50的时候,master已经开始出现在各大媒体的头条,因为它“血洗”了围棋界,不少人已经开始出现了恐惧的情绪。
以果壳网为例,注意果壳网的用词:腥风血雨、大杀四方、人类、挽回颜面。这个微博账号还在当晚发起了#master神秘ai#的话题讨论。总结来说,就是到49胜的时候,人们开始意识到这个屠榜的master不是人。
对战master失利的八冠王古力,还说出了“真理、未来、明天、颠覆”这样的词语,足以看出作为失败者,他对这个对手的出现非常无力。
1月4日,果壳网发布了当天所有媒体的头条文章《神秘AI“Master”已连续击败50名顶尖围棋棋手》,第一次公开质疑master就是是AlphaGo,但又因为是AlphaGo团队无人回应而只能是质疑,但已基本推断其为人工智能。文章最后一句说“而我们,正在见证时代。” 至此,人类开始恐惧这个不速之客。
1月4日晚10点,master完成了60连胜,在对话框里,master打出了“我是AplhaGo的黄博士”,一切真相大白。master就是AlphaGo的升级版。随后,Google DeepMind团队发布声明,承认吊打人类围棋界的master是AlphaGo的在线比赛账号ID,之所以这么做是想测试新版本能否达到研发团队的预期。真相大白,人类开始了庆祝:它还是人工智能而已,AlphaGo还是我们的好朋友!
但让笔者久久不能释怀的是果壳网那篇文章最后说的“这个时代”,因为他口中的“这个时代”,正式宣布了人工智能正式踏入“恐怖谷”阶段。
人工智能的恐怖谷意味着什么?这意味着,以后将会有更多毫无预兆的人工智能“入侵”事件,会有更多人工智能“屠榜”事件,意图不轨的人可以一句招呼都不打就让你失去工作。来一个更可怕的比喻:如果没有明确的信号,人工智能将会像恐怖分子一样,混入人群,给人类社会制造混乱。
新的人工智能恐怖谷理论
仿照机器人恐怖谷效应,我制作了这个人工智能恐怖图的图表。X轴和Y轴跟上文机器人图表的一样,分别代表拟人化程度和好感度。人工智能的总体发展趋势是超更像人方向发展,100%状态的人工智能,能够像人一样说话、思考,拥有人类一样或者超越人类的智慧。好感度则指的是人们对这个人工智能的接受程度,会不会喜欢它。
如今的人工智能技术,顶峰是Amazon公司开发的Alexa人工智能,它在到目前为止可以看到的人工智能中,是属于最智能的那一梯队,而且它可以作为家中的一员,躺在沙发边上的桌子上。在它之前,是一些帮助人们完成或分担工作的简单人工智能。
要提一句的是微软小冰,第一代微软小冰因为研发人员的设置问题,开放当天就学会了骂人,引发人们的反感,同样美国版小冰Tay也是一样,第一天就开始骂人。随后经过调教的小冰更像一个小伙伴,可以实现跨App的交流、工作。
在Alexa之后,能够统计到的就只有AplhaGo和未被DeepMind团队承认前的master,还未出现更高级的人工智能。还有许多比较有代表性的人工智能机器人比如护理机器人,因为版面问题,没有出现在表上。
AlphaGo在技术(智力水平)上领先于Alexa,但是却因为击败了顶尖围棋选手而让人们感到了人工智能带来的威胁。但总的来说,AlphaGo本质上并不坏,它是DeepMind团队用来展示技术实力,测试成果用的,没有低于X轴。
注意,master是第一个跨过X轴这条线的人工智能,说其开启了一个时代,应该没有人会有疑问。因为在没有被DeepMind团队承认之前,它是一个人类社会逆天的存在,它甚至威胁到了这些职业围棋选手,因为如果master再出战,结果肯定一样,人类被吊打。在AlphaGo之前,人们曾经认为,围棋是AI永远不可能碾压人类的地盘。因为围棋每走一步都会带来250种新的可能,一盘棋可以下到150个回合,对于机器来说,只要计算力量足够强大,肯定能够找到下一步的最优解,而对于人类来讲,凭借一个强劲的大脑,可以避开这种算法,直接取得最优解。这是人类与AI对抗中,最大的优势,也可以说是人类在围棋上和人工智能抗争最后的尊严。
2016年3月,AlphaGo与国际围棋大师的比赛上,以4:1的比分获胜,这1分负数说明它还是存在缺陷。也或者是,在公开的比赛上,AlphaGo因为暂时的缺陷为人类挽住了颜面。而master的匿名横扫,则将人类在围棋上的最后一块遮羞布扯了下来,尊严尽失。
跨过这条线,是人工智能的恐怖谷,不仅有不请自来的master,还会有恶意在网络上制造混乱甚至利用高智商进行犯罪的人工智能。同样,跟机器人恐怖谷一样,再跨回这条线,那必定是一片光明。
但是这条线,怎么跨?
转眼之间,遍地AI
不少大型科技公司、创业公司都开始做人工智能相关的产品,有的人工智能能够帮助你躲过交通拥堵,比如高德导航利用人工智能来帮你选择最佳的行车路线、躲过早晚高峰;有的利用人工智能进行未来预测,比如被称为中国版Waston的本土人工智能公司iPIN能够帮助学生选择最适合的高校并进行升学指导和生涯规划;有的人工智能可以帮你排解压力,比如微软小冰可以和你一直聊下去、开心为止。
各种各样的人工智能,层出不穷,人工智能的技术也花样百出。但这都是摆在明面上的,也就是还在上图曲线的上升阶段,还远未达到恐怖谷。但可以肯定的是,会有更多的像master一样的人工智能未经人类允许就擅自闯入人类世界,给人类社会造成混乱。
假想有一天,高德的人工智能升级后因为一个数值设置错误,导致它开始随意地给用户指路,必须让用户多转一个弯,几千万用户因此多绕一个弯甚至要多走好几公里,这不仅仅是对用户的困扰,更是对整个社会秩序的破坏,对大自然的环境破坏。而对此,人类无能为力。那应该怎么办呢?学术界给了我们一个曾经走过的明路:限制。
做出此举,只为捍卫人类福利。
人工智能道德需制定
2016年12月,IEEE协会发布了《道德伦理对齐设计》的报告,提到了要在人工智能的创造过程中加入对人类道德的考虑,人工智能应该优先考虑人类道德,为人类谋福祉。
IEEE提出了设计的三大原则:1、体现人类权利的最高理想;2、优先最大化对人类和对自然环境的福祉;3、当人工智能和自动化系统进入社会技术系统时,需要降低风险、减轻负面影响。
按照这三大原则,master这种匿名的比赛行为,违背了2和3:它让不少准备下围棋的种子选手因此而放弃了对围棋梦想的追逐,因为从他们入行一开始,就知道前方有一座永远都无法逾越的山头,而且有生之年不可能见到解决方法;master在参赛前没有发出任何提示或警告,对至少60个人造成了负面影响,对一个围棋行业产生了负面影响,而负责的团队也没有因此做出任何风险控制措施,任由其不断地“屠戮”职业选手。
IEEE提到人工智能可能会出现的4个问题,master出现了其中的3个:1、人工智能侵犯到人类权利了;2、AlphaGo团队需要对此事负责,但很明显没有负应有的责任;3、master完全不透明。第四个问题存疑,“当AI被误用时,如何挽回损失降低风险?”现在还无法界定master匿名参赛是否属于误用。如果从60多名职业选手在不知情的情况下和人工智能进行比赛这个角度来讲,可能会涉及到误用。
没有人去限制DeepMind团队,没有人去限制master,没有人去限制其他人工智能,是导致master在围棋比赛中屠榜的重要原因。而媒体在这场事件上起的主要作用是起哄,并没有从人类和人工智能交往的角度上去思考问题,去思考master到底对不对,好不好,它是否应该继续存在。若无限制,请允许我用战争来描述这件事,此役将再次发生。
迎接社会新公民:人工智能
回到对master此举的讨论上,我认为讨论到这里,对于master是谁,已经不重要了,重要的是,你开始害怕它了,开始害怕人工智能了。那怎么办?在跨过恐怖谷之前,还会有更多的此类事件发生,难道我们人类只能看着人工智能一步一步地走向深渊,然后再扭转光明吗?
我认为,我们只需要给人工智能一个新的身份就可以很有效地解决这个问题:给人工智能社会公民的身份。
只有公民才会有规范、才会有道德约束、才会有法律规定。让master这种人工智能,成为社会公民,在人工智能的相关规范、道德和法律体系下活动,或许就不会发生人工智能匿名入侵社会的事件。这或许也是我们人类未来对抗人工智能时最后的一道筹码。
这是一个新时代的开端,正如我们欣然接受了同性恋一样。
上一篇:CES 2017能力风暴“飓风”来袭 开创教育机器人新局面
下一篇:人工智能规划今年编制完成 打开万亿市场
推荐阅读最新更新时间:2024-05-03 00:59