3种AI芯片之间的争夺,未来谁是赢家?

2019-08-16来源: 半导体行业观察关键字:AI芯片
人工智能(AI)主要包括三大要素,分别是数据、算法和算力。其中数据是基础,正是因为在实际应用当中的数据量越来越大,使得传统计算方式和硬件难以满足要求,才催生了AI应用的落地。而算法是连接软件、数据、应用和硬件的重要桥梁,非常关键。算力方面,主要靠硬件实现,也就是各种实现AI功能的处理器,而随着应用和技术的发展,能实现各种算力、满足不同应用的AI处理器陆续登场,经过不同的发展阶段,发挥着各自的作用。


在比较成熟的AI平台方面,在2012年出现了AlexNet,一直到最近,2018年出现了AlphaGo Zero,在短短的6年内,算力提高了20多万倍,这完全不同于传统计算硬件(如CPU、MCU等)的演进轨迹,速度之惊人令我们难以预测。


来自OpenAI的分析显示,近几年,AI训练所需的算力每3个多月就会翻倍,这比著名的摩尔定律(每18~24个月,芯片的性能翻倍)演进速度快多了。而提升算力的关键是芯片设计,特别是底层的架构设计,目前来看,传统的芯片架构已经难以满足AI应用的需要。包括IC厂商和互联网企业在内,越来越多的厂商开始投入研发或已经推出AI专用芯片。根据Gartner统计,AI芯片在2017年的市场规模约为46亿美元,而到2020年,预计将会达到148亿美元,年均复合增长率为47%。而据麦肯锡预测,未来10年,人工智能和深度学习将成为提升硅片需求的主要因素,2025年,在AI的推动下,全球硅片营收将超过600亿美元,接近全球半导体销售额的20%。


三种AI芯片的对比


从AI芯片的应用场景类别来看,主要分为云端和终端。目前,AI在云端应用的更多,相对成熟,而其在云端应用又可分为训练和推理两种,其中训练的市场规模占比较高。另外,训练需要的数据量和计算量较大,所用的处理器主要是GPU。至于推理,也以GPU为主,此外,还有FPGA,以及专用的AI芯片(ASIC),其中,ASIC还不是很成熟,量产的产品也不多,因此用量有限,还处于发展初期,如果能实现大规模量产,其性能和成本是最优的,主要推进厂商是Google,其标志性产品就是TPU。


综上,目前,行业为实现AI计算,主要采用的芯片有三种,分别是通用型的GPU,可定制的FPGA,以及专用的ASIC。


在计算层面,芯片的晶体管数量和芯片面积决定了算力,面积越大算力越强,但功耗也将随之增加。过去几年,在AI处理器的选择上,可用于通用基础计算且运算速率更快的GPU迅速成为实现AI计算的主流芯片,英伟达也因此占据着数据中心AI芯片的主要市场份额。


FPGA是典型的半定制化芯片,其功能可以通过编程来修改,并行计算能力很强,但是延迟和功耗远低于GPU,而与ASIC相比,FPGA的一次性成本要低很多,但其量产成本很高。因此,在实际应用需求还未成规模,且算法需要不断迭代、改进的情况下,利用FPGA的可重构特性来实现半定制的AI芯片是最佳选择。


AI专用芯片ASIC是面向特定应用需求而定制的芯片,一旦流片,其功能无法更改,因此,必须要有量的保证,且应用需求稳定,不会发生大的变化。专用ASIC芯片的性能高于FPGA,如果出货量可观,其单颗成本可做到远低于FPGA和GPU。


目前来看,由于GPU具备强大的并行计算能力和完善的生态系统,现在云端AI应用方面处于主导地位。FPGA方面,由于是半定制化的,可以通过编程来实现不同的功能电路,因此,其在通用性和性能之间取得了比较好的平衡,但是较高的开发门槛和量产成本,对其应用是个限制。

图:在实现AI功能方面,GPU、FPGA和ASIC的优缺点对比(来源:长城证券研究所)


专用的AI芯片应该是未来的发展趋势,无论是在云端还是在边缘侧,随着应用的逐渐落地,应用场景和各种专用功能会愈加清晰,市场需求也会越来越多。另外,与GPU和FPGA相比,ASIC的专利壁垒要小得多,而且其设计难度也是最小的。随着AI应用场景的落地,专用的ASIC芯片量产成本低、性能高、功耗低的优势会逐渐凸显出来。


AI芯片案例


目前,在AI应用方面,全球数据中心用GPU市场基本被英伟达垄断,这里用到的都是高性能GPU,其门槛很高,又是用于AI,因此,还没有什么竞争对手。


除了GPU芯片本身之外,英伟达还有一个优势,那就是其在AI计算方面,有CUDA软件生态系统的配合。CUDA编程工具包让开发者可以对每一个像素轻松编程,在这之前,对程序员来说,GPU编程是一件很痛苦的事,CUDA成功将Java、C++等高级语言开放给了GPU编程,从而让GPU编程变得简单了许多,研究者也可以更低的成本快速开发他们的深度学习模型。以图形处理器加速卡Tesla V100 PCIe/SXM2为例,其芯片采用台积电的12nm制程工艺,通过与CUDA软件和NVLink快速通道的配合,能达到近125兆次深度学习的浮点运算训练速度,而以16bit的半精度浮点性能来看,可达到31Tera FLOPS。


FPGA方面,Altera被英特尔收购之后,赛灵思是目前的霸主,作为传统的CPU厂商,英特尔近几年正在AI领域大力布局,收购相关公司自然是一个重要手段,通过收购全面布局 FPGA和ASIC,除了Altera的FPGA之外,还通过收购Mobileye和视觉处理器公司Movidius,布局无人驾驶和计算机视觉,这也是将来AI大有可为的两个应用领域。


在收购Altera之后,英特尔的技术发展路线就出现了调整,例如,其原来的产品策略是做分立的CPU+FPGA加速器,而两家公司整合后,由简单的分立器件叠加改为了封装集成,即将CPU和FPGA芯片封装在一起,这还不算完,英特尔下一步还要将CPU和FPGA集成在同一芯片内,做成SoC。


赛灵思方面,该公司于2018年底推出了以低成本、低延迟、高能效深度神经网络(DNN)算法为基础的Alveo加速卡,基于该公司的UltraScale架构,采用了台积电的16nm制程工艺,目标市场就是数据中心和云端的AI推理市场。


AI专用ASIC方面,国内外已经有多家企业投入了研发,例如国内的寒武纪(正在开发NPU)、地平线(BPU系列),还有华为海思和比特大陆,也在专用AI芯片方面投入了不少资源。国外最为知名的就是谷歌的TPU了,这也是到目前为止,最为成熟的高性能AI专用芯片了。做ASIC需要对应用场景有深刻和精确到位的了解,而这方面却是传统芯片设计企业和IDM的短板,因此,目前做AI专用ASIC的,大多是系统产商,互联网巨头,或者以算法起家的公司。


在中国,比特大陆的算丰 (SOPHON) BM1680和BM1682云端安防及大数据AI推理系列产品已经上市,此外,还有其它几家没有量产的芯片,如华为海思的昇腾Ascend 910系列,据悉会采用台积电的7nm制程工艺,预计会在今年年底量产。此外,百度的昆仑芯片(采用三星的14nm制程),以及阿里平头哥的Ali-NPU等,也处在研发阶段,距离量产还有一段时日。


以上谈的主要是用于云端的AI芯片,包括GPU、FPGA和ASIC,这也是目前AI的主要应用领域,而在终端和边缘侧,更多的要依靠不断成熟的ASIC,因为ASIC与应用场景有着非常紧密的关系,而这里说的应用场景,主要是在终端和边缘侧。


结语


AI发展正处于强劲的上升阶段,此时,各种AI芯片实现方案都有其发挥的空间,可以说是处于最佳时期,这也给众多厂商占领各自擅长之应用市场提供了更多的机会。而随着应用场景的完全落地,以及AI专用芯片的成熟和大规模量产,这一发展窗口期很可能就将关闭,因此,眼下各家厂商,无论是做GPU、FPGA,还是做ASIC的,都在抓紧时间研发和拓展市场,竞争愈发激烈。


关键字:AI芯片

编辑:muyan 引用地址:http://news.eeworld.com.cn/qrs/ic471363.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:推动下一代云计算技术升级 阿里平头哥研发专用SoC芯片
下一篇:CHIPS联盟利用西部数据RISC-V内核和FuseSoC工具推出新项目

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

存算一体AI芯片公司—知存科技完成近亿元人民币A轮融资

存算一体的芯片运算无需数据读写和数据搬运,可以突破瓶颈提高芯片效率。36氪获悉,存算一体芯片设计公司「知存科技」宣布完成近亿元人民币的A轮融资,此轮融资中芯聚源领投,普华资本、招商局创投、三峡鑫泰、科讯创投、燕缘雄芯跟投。CEO王绍迪告诉36氪,此轮融资将主要用于完成芯片的量产工作。知存科技成立于2017年,主要研发NOR Flash存算一体AI芯片,主要针对语音识别和视觉识别两个领域,目前正在进行Demo芯片的测试,运算效率为15TOPS/W,预计半年内进入量产阶段。上世纪40年代,冯诺依曼确立了处理器和存储器分离的基本计算架构,即数据和程序存入存储器中,处理器调出数据计算之后再传送回存储器当中。这一架构也是目前最普遍使用的架构
发表于 2019-08-06
存算一体AI芯片公司—知存科技完成近亿元人民币A轮融资

嘉楠科技技术VP吴敬杰:IC设计上云将成为行业趋势

阵营的公司。2016年嘉楠科技决定进入AI芯片设计领域,2018年的全球第一个量产7nm投片,并成功推出RISC-V AI芯片勘智K210(KENDRYTE K210)。  这是AI ( K210 ) Feature Demo,这颗芯片能够以每秒60帧速度进行图像识别,而且功耗只有300mw。 这是嘉楠科技在智能农业AI落地方案,在识别粮食仓储害虫大黑粉盗,不仅可以识别成虫,还可以识别幼虫、虫卵。  剩下三个落地方案分别是人脸识别门锁、无感门禁、智能水表。人脸识别门锁应用于酒店,只需要5号电池就可以完成供电。中间是无感门禁系统,最大特点在于无需用户将人脸对准摄像头,系统支持用户在自然
发表于 2019-08-02
嘉楠科技技术VP吴敬杰:IC设计上云将成为行业趋势

英特尔推超高效AI芯片 为自动驾驶汽车等提供动力

(图片来源:英特尔公司官网)据外媒报道,尽管5G智能手机还没有成为现实,但英特尔公司(Intel)一直在研发能够模仿人类大脑的Loihi “神经拟态”深度学习芯片。现在,英特尔还推出了一个名为“Pohoiki Beach”的新系统,该系统包含多达64颗Loihi芯片,集成了1320亿个晶体管,总面积3840平方毫米,拥有800万个神经元、80亿个突触,能够处理人工智能(AI)算法,与普通CPU相比,速度快了1000倍,能效高了10000倍,可用于自动驾驶、电子机器人皮肤、假肢等等。Loihi芯片采用14nm工艺制造,集成21亿个晶体管,核心面积60平方毫米,内部集成3个Quark x86 CPU核心、128个神经拟态计算
发表于 2019-08-01
英特尔推超高效AI芯片 为自动驾驶汽车等提供动力

嘉楠科技曝光AI芯片新突破 联合AWS实现国内首家IC上云

7月31日,全球巡回举办的大型云技术盛会,AWS技术峰会2019在北京国家会议中心拉开帷幕。作为国内“首家IC上云”AI企业,嘉楠科技技术副总裁吴敬杰首次对外讲述如何在云端进行AI芯片开发。 进入2019AI芯片厂商开始不断纵深发展,其中除了市场、资本纵深的变化,引发AI芯片行业的格局变动,技术研发的纵深发展更是让AI芯片厂商开始全面比拼“内功心法”,整个市场平均水平不断上升。  上图:嘉楠科技技术副总裁吴敬杰演讲 从研发角度看,作为依托于传统IC开发而发展起来的AI芯片开发,依然与传统IC开发环境紧密相连,但是随着市场实景落地需要的变大,AI芯片无论是开发需求、研发方向,甚至是技术应用都发
发表于 2019-08-01
嘉楠科技曝光AI芯片新突破 联合AWS实现国内首家IC上云

在冰与火的夹缝中生存,AI芯片市场最近变冷?

最近,AI芯片市场明显“冷”了下来。  作为芯片市场的一哥,英伟达刚刚发布的Q1季度报告表现就十分不理想。数据显示,截至2019年4月28日,英伟达当季收入22.20亿美元,环比增长1%,同比下跌31%,毛利率58.4%,环比提高3.7个百分点,同比减少6.1个百分点;净利润3.94亿美元,环比下跌31%,同比下跌68%。数据一出,整个AI芯片市场的心态都很难不受影响。  英伟达营收下跌的因素有很多,作为高端芯片设计巨头,就像是早年苹果显著优势被不断追赶上一般,现在英伟达也处在这样的困局之中,创新无力,优势渐失。因此,它的利润下跌暗示出两个信号:1.整个市场平均水平上升了;2.高端
发表于 2019-07-16
在冰与火的夹缝中生存,AI芯片市场最近变冷?

小广播

何立民专栏

单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2019 EEWORLD.com.cn, Inc. All rights reserved