eeworld网晚间报道:随着AI产业快速突破,各大公司在AI领域的人才动向也在引起极大关注,你来我往、归去来兮,AI江湖上大有一片血雨腥风之势。当然,AI领军人物的变动,会对具体公司业务造成影响。但从整个行业来看,人才流动的频繁,反倒有可能促进产业的整体进程。
不信你翻翻历史。AI这门功夫自1956年问世以来,至今已经历60年风风雨雨,一直是流派众多,难学难练,没有大成。
难学,是因为必须要掌握一种叫做“算法”的神功;难练,是因为需要有足够算力,能够处理数据样本,训练机器。
几十年来,一直是有算法没算力,甚至于有人认为,人工智能就是一个科幻,就是小说家跟人类开的一个玩笑而已。谁也没想到,进入21世纪后算力大爆炸。引发了整个AI产业开天辟地般的变化。
其中,算法上升为天——深度学习,分成DBN,CNN,BP,RBM等等诸多分支,其中佼佼者当属CNN(convoluTIonal neural networks),人称卷积神经网络,应用广泛。
算力,下降为地——AI芯片。各种芯片如雨后春笋涌现,拿过来训练机器,得心应手啊。
庙堂之上也为AI驾临人间雀跃不已。世界各国意识到人工智能的重要性,纷纷箪食壶浆,以迎AI。
联合国于2016年发布告示,召集人类讨论机器人的制造和使用如何促进人工智能的进步,以及可能带来的社会与伦理问题。
美国政府于2016年连续颁发三道金牌:《美国国家人工智能研发战略计划》、《为人工智能的未来做好准备》、《人工智能、自动化与经济报告》,宣称加入人工智能教派,并且描绘了此举能带来的种种美好的前景。
英国政府见此立即照方抓药,刊发了《机器人技术和人工智能》报告,详细的阐述英国的机器人技术与AI的亲密关系。
有算法有算力,天地已定。有政策有战略,和风细雨。正是产业萌芽,草长莺飞,欣欣向荣的时刻。人才的流动正是产业加速的信号。
书归正传。芯片定义了产业链和生态圈的基础计算架构,正如CPU是IT产业的核心一样,芯片也是人工智能产业的核心。
话说天下AI芯片共分四大流派:
GPU,目前锐气正盛,恰似东邪,凭借并行计算形成先发优势。
FPGA,蛰伏北方,正在暗地里合纵连横,大有号令群雄的势头,恰似丐帮。
ASIC,割据南方,占领了大片市场,参与的公司林立。
类脑芯片,这个更“邪性”,打算直接复制大脑,也暗藏着问鼎中原的野心。
根据互联网公开发布信息,今年,四大流派已经派出几十路高手,参与华山论剑,这些高手均属于芯片设计期高手。
这些高手都有什么特点?谁能逐鹿中原?下文一一分析。
GPU一派
市场上名气最大的应该是GPU一派。GPU也称视觉处理器,专门用于图像及相关处理的芯片。
2012年,Alex Krizhevsky,多伦多大学的博士研究生,凭此在ImageNet大赛上夺下了2012届的冠军。Alex提出了一个奇妙的模型,仅凭借两个GPU就取得了训练深层神经网络的极佳效果。江湖顿时为之轰动,于是引发了GPU训练神经网络的风潮。要知道,AI领域过去曾用CPU处理数据,但CPU效力太低。
当年,谷歌曾经花费巨资购买1.6万个处理器,堆成谷歌大脑,峰值功耗在10万瓦以上,占地面积数十平方米。试问天下,有几人能玩的起1.6万个处理器?
随着 AlexNet的划时代论文横空出世,于是GPU 在服务器端横扫天下。
有人会问,CPU和GPU,都是处理器,两者有什么不同?
与CPU相比,GPU 出现得远比 CPU 晚,但并行计算能力能却常令CPU望尘莫及。并行计算是相对于串行计算来说的。要知道,自计算机诞生以来,电脑编程几乎一直都是串行计算,绝大多数的程序只存在一个进程或线程,好比一个人只能先吃饭再看聊天。
但更多人喜欢边吃饭边聊天怎么办?遇到这类问题,串行计算就傻眼了。并行计算一次可执行多个指令的算法,能够完美解决吃饭聊天难题。解决方式可分为时间上的并行和空间上的并行。时间上的并行就是指流水线技术,而空间上的并行则是指用众多个处理器并发的执行计算。
深度学习所依赖的是神经系统网络,通常网络越深,需要的训练时间越长。对于一些网络结构来说,如果使用串行的X86 处理器来训练的话,可能需要几个月、甚至几年,因此必须要使用并行甚至是异构并行的方法,才有可能让训练时间变得可以接受。
在当前的人工智能芯片领域,GPU的应用领域不容小觑,据Jon Peddie Research(简称JPR)市场调研公司统计,在2008至2015年期间,除了2008年GPU市场规模稍有下降,其余年份全球独立显卡的出货量和销售额都呈现出明显的上升趋势,并且在2012至2015年有加速上升的表现。
GPU领域只有两大公司,一是英伟达,占市场份额约7成,另一位则是万年老二AMD,占市场份额约3成。
从GPU用户数量来看,根据英伟达2016年的财务报告,相比2013年的100家,2014年的1549家,2015年已有3409家机构或企业使用英伟达的GPU产品,从事人工智能的研究。这些企业和机构包括各大高等院校的人工智能实验室,互联网企业,军事企业等。
AMD虽然落后于英伟达,但2016年的市场份额已呈现出上升趋势,在发布了代号Vega织女星的GPU芯片,市场一片叫好,未来可能有继续上升的趋势。
不足的是,GPU 很费电(比如高端显卡动辄200W+),一旦开启,散热就成了麻烦事。
FPGA一帮
GPU美中不足的是就是太贵了,太贵了,而且有副作用,降温是大个问题。怎么办?
赛灵思等公司改进了FPGA许多技术,使之价格便宜功耗又很低,操练起来更有趣。于是,跟随FPGA的越来越多,形成了一大流派。
FPGA是从哪里来的呢?
原来早在1984年赛灵思就发布世界上首款FPGA,当时的FPGA晶片尺寸很大,但成本却不低。1992年后,FPGA因采用新工艺节点,第一次出现了在FPGA上实现卷积神经网络。但直到2000年后,FPGA丹法结合了“易容术”后才略有小成,易容术是指FPGA 已不仅是门阵列,还是集成有可编程逻辑的复杂功能集。2008以来,FPGA不光可以越来越多地整合系统模块,集成重要的控制功能,还可以使用更高效的系统编程语言,如OpenCL和C语言,通过类似软件的流程来编程,降低了硬件编程的难度。于是,自2011年开始,出现了大规模基于FPGA的算法研究。
简单来说,FPGA 全称“现场可编程门阵列”(Field Programmable GateArray),其基本原理是在 FPGA 芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过更新FPGA 配置文件,来定义这些门电路以及存储器之间的连线。
这里提及的“可编程”,完全就是“可变成”。这意味着你今天可以把 FPGA 配置成一个微控制器MCU,明天就可以更新配置文件把同一个 FPGA 配置成一个音频编解码器。你是不是想起了孙悟空七十二变,今天是个老头明天是个少女?此乃易容术也。
不同于GPU的运行原理,FPGA是以门电路直接运算的,即编程中的语言在执行时会被翻译成电路,优势是运算速度快。
在很多领域FPGA的性能表现优异,以至于有人说FPGA可能会取代CPU和GPU成为将来机器人研发领域的主要芯片。当然,这事有点夸张。目前来看FPGA也多作为CPU的协处理器而出现,冲击GPU是显而易见的,但要说取代CPU,还得等等。
目前,国内有许多创业企业,自动加入FPGA阵营,提供基于FPGA的解决方案。比如源于清华大学的深鉴科技,专注于深度学习处理器与编译器技术,深鉴科技研发了一种名为“深度压缩”的技术,它不仅可以将神经网络压缩数十倍而不影响准确度,还可以使用“片上存储”来存储深度学习算法模型,减少内存读取,大幅度减少功耗。
FPGA流派的厂商有两大两小,两大厂分别是赛灵思、Altera(英特尔于2015年以167亿美元收购Altera),两小是LatTIce和Microsemi。
其中,赛灵思和Altera占据了近90%的市场份额,两人旗下的专利超过6000项。而剩下约10%的市场份额,由Microsemi和LatTIce瓜分,这两位的专利也有3000余项。由此可以看出,极高的技术门槛将其它希望进入FPGA市场的厂商牢牢挡在门外。
ASIC:由吸星大法突破
虽然GPU在并行计算方面有不少优势,但毕竟不是为机器学习专门设计的,FPGA则是需要用户自主编程,主要面向专业领域的企业用户,门槛太高。
大众消费领域怎办?如应用到无人驾驶汽车上或是智能家居终端,这款芯片还要同时满足高性能和低功耗的要求,甚至不需要将数据传回服务器端,不必连入互联网,本地即时计算即可。
ASIC挺身而出。
ASIC的全称是专用集成电路 (ApplicaTIon-Specific Integrated Circuit)。
玩过比特币的都知道著名的挖矿大战。ASIC在比特币挖矿领域,展现出了得天独厚的优势。2013年1月Avalon项目团队交付了世界上第一台商用比特币ASIC矿机,轰动了挖矿世界。CPU、GPU矿机几乎在一夜之间消失的无影无踪,引发了比特币挖矿行业第二次重大升级,比特币网络核心开发者Jeff Garzik有幸成为了第一个商业ASIC矿机的拥有者,据说当时收到Avalon矿机的用户在一两天内就回了本。而传说中隐藏在农村的土豪,能动用的ASIC矿机达到了数千台。
人工智能深度学习和比特币挖矿有类似之处,都是依赖于底层的芯片进行大规模的并行计算。
ASIC分为全定制和半定制。全定制设计需要设计者完成所有电路的设计,因此需要大量人力物力,灵活性好但开发周期长,上市速度慢。专为机器学习设计的ASIC芯片,从设计到制造,对资金和技术的要求都更高。一般来说,基于FPGA的开发周期大约为六个月,而相同规格的ASIC则需要一年左右,需要经过多步验证,可想而知,在这样精细的打磨下,其性能自然也更为出色。
ASIC的开发时间长,意味着ASIC芯片很有可能赶不上市场变化的速度,致使厂商陷入竹篮打水一场空的尴尬境地。
类脑芯片:复制另一个人脑
类脑芯片不得不提IBM,每次产业变迁,IBN总要给大家带来一些新鲜名词热闹一番。比如电子商务、智慧星球,认知计算,现在又带来了号称要复制人脑的类脑芯片,科技真真太黑了。
IBM类脑芯片的后台支持者是美国国防部先进研究项目局(DARPA),DARPA是可谓科技圈的泰山北斗,大名鼎鼎的Internet前身阿帕网即源于这个机构。
DARPA与IBM合作建立了一个项目,名为“神经形态自适应伸缩可塑电子系统计划(SyNAPSE)”。该计划意图还原大脑的计算功能,从而制造出一种能够模拟人类的感觉,理解,行动与交流的能力的系统,用途非常明确:辅助士兵在战场动态复杂环境中的认知能力,用于无人武器的自动作战。
该项目中最引人注目的是类脑芯片TureNorth。2011年,IBM发布第一代TrueNorth芯片,它可以像大脑一样具有学习和信息处理能力,具有大规模并行计算能力。2014年,IBM发布第二代TrueNorth芯片,性能大幅提升,功耗却只有70毫瓦,神经元数量由256个增加到100万个,可编程突触由262144个增加到2.56亿个。高通也发布了Zeroth认知计算平台,它可以融入到高通Snapdragon处理器芯片中,以协处理方式提升系统认知计算性能,实际应用于终端设备上。
“正北”问世,激起了国内研究机构对人工智能的的热情。
上海的西井科技去年发布了全球首块5000万神经元类脑芯片。该公司宣称,这是目前世界上含有神经元数量最多的类脑芯片,也是首块可商用化类脑芯片。
总结:
AI芯片作为产业上游,也是技术要求和附加值最高的环节,产业价值和战略地位远远大于应用层创新,因此我们需要高度重视。
放眼时代变迁,CPU领域WINTEL联盟已经一统江山极难突破,而AI芯片方兴未艾,机遇正在逐渐显露,AI领域未来必然也会产生类似英特尔、AMD这样的世界级企业。
美国以绝对实力处于领先地位,但一批中国初创企业也在蓄势待发。
但是,AI芯片领域的创新绝不是件一蹴而就的事情。它涉及到人工智能算法、编程语言、计算机体系结构、集成电路技术、半导体工艺的方方面面。在巨大的国际竞争压力下,靠单个企业研发投入,远远不够;单靠有限的风险投资,也不行。靠科技补贴,更是远水解不了近渴。
上一篇:移康智能推智能指纹锁+猫眼智能门控系统
下一篇:任正非痛斥遍地智能化 AI软件平台突破关键场景
推荐阅读最新更新时间:2024-03-16 11:23
- 米尔T527系列核心板,高性能车载视频监控、部标一体机方案
- Akamai 全新视频工作流程功能强化媒体平台控制能力
- 紫光同芯推出全球首颗开放式架构安全芯片E450R 已获国密二级认证
- 品英Pickering公司携多款模块化信号开关和仿真解决方案亮相国防电子展
- 派克汉尼汾推出适用于现场监测和诊断的测量设备 Service Master COMPACT
- 连接与距离: 安防摄像头新气象—— Wi-Fi HaLow 带来更远传输距离和更低功耗
- 思特威携多款重磅产品强势亮相2023 CPSE安博会
- 双轮驱动,云天励飞推出12TOPS边缘视觉SoC
- 丰田汽车因信息泄露案接受日本行政指导 涉及241万条用户数据