我的朋友H 是位老司机。他平均每天要行驶数百公里,接送几十万人,座驾的价格更是秒杀街上一众豪车——没错,他是位地铁司机。
他很不快乐。司机这个行业容易令人感慨人生,每天跑同样路线的地铁司机特为尤甚。他疲劳,压力大,赚得不多。不再年轻的他,时常琢磨着换个行业,换种人生;然而,因为不再年轻,更因为「地铁司机」的局限性,他的人生愈发趋向固定,他所期待的改变,越来越难以发生。
我有些同情他,这不光是因为我们认识多年,也因为他的境遇其实与许多人相同。不富裕的家庭中,孩子往往缺少选择的权利。这意味着,在他们真正明白自己想做什么、该做什么之前,他的教育规划和职业规划,已经锁定了他「能做什么」。只有少数强者和幸运儿能够打破「不得不」的束缚,实现一个「我可以」的未来。
他学习设计,学习UI,学习编程。然而,经验不足而年龄有余,导致多数公司婉拒他的求职。更可怕的并非这尴尬的现状,而在于他对我说:其实,我学的这些东西,我也不喜欢。
他对我感慨:如果我早知道这一切的影响会那么大,上大学时候,我就挑个好找工作的专业了。
智能之能
自从奥巴马在白宫钦点人工智能为重要发展方向,世界对人工智能变得愈发宽容。多年以前,我们还在幻想终结者里的剧情,杞人忧天地害怕机器人支配人类;多年以后,机器人使我们失业的恐惧近在眼前,我们却选择性忽视了3、5 年后的世界,开始赞叹AlphaGo 的神迹。
在乐观的求道者眼中,人工智能的发展一刻也不能停。AI 实在是太好了,他们远快于人,远准于人,口无怨言,不眠不休。他们连接最新消息的速度,就像你收到工资后脸上露出微笑的速度一样快。他们将成为日渐消失的廉价劳动力最佳的替代品。至于被替代的廉价劳动力该何去何从,许多人认为:社会效率的巨幅提高会带来共同富裕,届时,失业将不是问题。
听到这句话,很多人觉得安心,尤其是那些并不熟悉人工智能的人。他们可能不会认真思索失业是不是问题,他们大脑里的另一条回路首先被触发:「失业的又不是我。」
真的不是你吗?
我不知道哪些行业有这样的底气。假如你对人工智能多了解那么一点点,你就会发觉三五年后的未来远不是那么乐观。你可能认为机械臂代替了组装工人,你可能认为高速计算代替了金融和财务的从业者,你可能认为深度学习碾压了传统的媒体与咨询,然而,iPIN 的杨洋教授(原哈尔滨工业大学副教授、留美信息学博士)说:你可能低估了机器的创造能力。
是的,机器非常善于创作。我们举一个最简单的例子。中文互联网上,「自动作诗机」恐怕有着20 年以上的历史。严格来说,作诗机最擅长生产百无一是的垃圾,这占据了他们生产的作品的99.9%;但是那剩余的0.1%,却并不见得比诗词熟手的作品差。
凭什么呢?怎么会呢?从概率上讲,猴子打字也可以打出传世诗篇,只不过这需要大量猴子,和大量时间。而大量猴子和大量时间,在AI 面前是最容易实现的事情;就算只有0.1% 的合格率,生产1000 首诗作,会花上高级AI 一秒钟的时间吗?
一个广告公司的总监,与其请一大堆下属拼命写文案,3 天出来100 段,自己再挑出合适的,为什么不让机器在3 秒内写出1000 段呢?假如这1000 段里竟没有合适的,为什么不再花3 秒钟呢?
一个互联网公司的CTO,与其请产品、设计和程序没日没夜做出28 个原型,给每个人发上24k 的月薪,为什么不和机器商量着来呢?后者不会抱怨加班,也不会引发真人快打。
很多人,你们真的觉得自己不会受到AI 的挑战吗?
举棋不定
当然,人类保留了选择的权利。我们可能不再需要基础的生产者——哪怕他们从事的是有创造力的工作——但我们仍然需要挑出金子的那个人。
哪怕被挑出的不是金子。因为,一个东西是不是金子,本质上还要基于人类的主观判断。机器的造物都是极好极好的,可你偏偏不喜欢。
正是这种任性使人类得以自决命运。意识的醒觉即便在人体上都远未实现(不然你就可以把生理结构完整的尸体复活了),在人工智能领域,更是遥远得很。
杨洋说:AlphaGo 是个好东西,它的出现让普通人关注人工智能,让整个行业都红火起来。你可能会害怕AlphaGo,但AlphaGo 有两个问题使他并不能代替人:第一,AlphaGo 能够获得胜利,能够知道每个下一步怎样走,但是你要它解释为什么如此落子,解释这场胜利是怎么获得的,它只能回以沉默;第二,它也不知道为什么要胜利。
简单来说,如果你设定AlphaGo 是一个争取失败的AI,它就会通过不断的学习成为一个能够百分百失败的「聪明的蠢货」。
所以,杨洋说:我更愿意管「人工智能」叫「机器智能」。
教育、招聘和法律。这是杨洋的iPIN 涉足的三个领域,他用这三个领域向我解释人工智能的能力,和人工智能的能力所限。
首先是教育。iPIN 的代表产品「完美志愿」发布于2015 年末,这个产品帮助高中学生查看并选择心仪的学校和专业。携大数据之威,人工智能冷静、客观而略带残酷地告诉学生填报志愿可能产生的后果:以你现在的成绩,填报清华某某专业,只有31% 的几率能被录取。
这是人的主观能动性与强大的机器智能结合的一个范例,当然也是鉴于高考的制度设计:考得好与报得好,对大多数人而言,无疑是高考策略的两条腿。你的老师靠谱儿吗,你的家长靠谱儿吗,还是你自己翻阅各种资料靠谱儿?在这种纯粹的信息搜集与数据分析问题上,人工智能肯定比谁都稳。
但是一切的最后,能考多少分还是只有靠学生自己。这种自决命运的操作,可能是人类与「机器智能」共处的最好模式之一。
落子无悔
同样,在招聘和法律方面,决策的合理程度也与当事人主观条件及社会的客观环境都密不可分。地铁司机不好换工作,一方面因为能力确实有限,另一方面,即便存在愿意招他的公司,凭他自己的搜索能力,他大概也只能与其失之交臂。
然而这种判断是很粗暴的。地铁司机的简历单调,不代表他整个人单调,即便那简历只有一行字;公司的招聘启事死板,同样不等于不严格符合要求的人就无法胜任。说到底,落于纸面的文字只表达了我们的一部分,无论是需求还是能力。人工智能能够像专业HR 一样严格把关、理性判断,但结合全网的信息而非受限于生硬的文字,AI 足以踏破简历的门槛「不拘一格用人才」。
这种破格对求职者和招聘者无疑都具有非凡的意义,也是「语义分析」「大数据」「人工智能」等技术能够展示的社会价值的一部分。
法律方面何尝不是如此呢?每位律师的经历万言难尽,案情的复杂程度恐怕也绝非涉案者的书写水平可以表达——非智能的招聘网站多少可以用罗列条目、填写表格的方式大概描述出苍白的求职者形象和招聘要求,但若采用同样的方式「找律师」,效率恐怕就更加有限。
传统意义上,处理难以量化的海量信息,我们主要靠人自决;不管是医疗、法律援助还是风险投资。C2C 的网站能展示最基本的信息,但表达方式的贫乏注定了用户的搜索与决策慢如蜗牛。
正因如此,虽然C2C 网站早已日臻成熟,但其效率注定是低下的。而引入语义分析之后的「智能」产物,哪怕用户不具备法律常识和良好的表达能力,直白描述「我开车撞了人」,人工智能也能找到匹配的律师。
杨洋说,就像地图软件在静态环境、步行环境和车载环境拿出了不同的产品,人工智能针对不同的场景,同样会把能力幻化为多种形式。一个人在填写高考志愿时可以依赖大数据,在招聘时可以依赖大数据,在人生的其他阶段同样未尝不可。
iPIN 可能在今年4 月发布一款帮助用户进行「生涯规划」的人工智能产品。这个产品在初期可能是简陋的,但杨洋表示今后将不断对其进行细化。iPIN 的目的是令人工智能覆盖生活的方方面面,从小学到大学,从婚姻到坟墓。
我们曾经说「人生如棋」,然而蕴含无穷智慧的围棋已经被AlphaGo 攻陷。既然如此,让勇敢而又蕴含无限可能的AI 挑战一下人生的棋局,似乎也相当有趣。
人工智能路线图
一个人想要的人生是自决的,而在用户做出相应的价值判断之后,人工智能将为用户绘制一幅「照着做就可以实现目标」的路线图。
“我们很多人对自己最终想要得到什么都很清楚,但对于如何设计到达目的地的路径却常常草率。”俞敏洪在《人生的地图》一文中如此写道。
之所以我们的人生路不够精打细算,可能是因为覆盖极多领域和巨量数据的计算非人类能及,然而这种事情交给机器来做,不是正好合适吗?
谈到数据,对于人工智能而言,数据来源在很大程度上决定了产品的「成败」。杨洋表示,国内的大数据产品那么多,单论技术并非没有差异,但差异都不足以在商业层面拉开差距;技术背后的另一层隐忧,才真是不容乐观——整个中国的信息数字化其实并不很理想,尤其在某些领域和发达国家相去甚远,比如医疗。
这种环境下,大量采用可疑数据的产品,未免会得出错误的结果;输出的结果若有错误,无疑会对用户造成伤害。IBM 的Watson 切入了医疗领域,这必然基于美国相当雄厚的医疗数据积累。既然iPIN 连用户的「生涯规划」都开始涉足,就更要提高警觉——在填报志愿这种大事上误导用户,危害之烈恐怕更甚于「魏则西」事件。
杨洋说,归根结底,人工智能是服务于人、服务于社会的。社会价值往往代表着需求,而需求无疑会带来商业的可能性。杨洋说,虽然听起来有些荒诞,但「生涯规划」将来会成为巨大的市场。
人生就像一盒巧克力,我们本来不该知道下一块是什么味道。然而在解决了数据量及可信度问题之后,随着生涯规划产品的成熟,我们或许能提前探知整盒巧克力的口味。彼时,用户的人生还能算是掌握在自己手里么?抑或,一个「西比拉」系统将会控制每一个自觉浸入其中的人?这也许都不得而知了。我知道的只是,这一切也许在5 年内就会实现。
杨洋觉得这也很逗。他说,我一个本科学光电的,怎么就做起人工智能来了?一旁的iPIN 伙伴搭话:是啊是啊,我本科学的是高分子材料……
此刻我想起的却是我身为地铁司机的朋友H,以及众多一失足成千古恨的平凡人。
上一篇:人工智能若“占领”世界,人类大脑是否会被取代?
下一篇:世界上有些角落真的不欢迎人工智能
推荐阅读最新更新时间:2024-05-03 01:04