3种AI芯片之间的争夺,未来谁是赢家?

发布者:Lihua521最新更新时间:2019-08-16 来源: 半导体行业观察关键字:AI芯片 手机看文章 扫描二维码
随时随地手机看文章
人工智能(AI)主要包括三大要素,分别是数据、算法和算力。其中数据是基础,正是因为在实际应用当中的数据量越来越大,使得传统计算方式和硬件难以满足要求,才催生了AI应用的落地。而算法是连接软件、数据、应用和硬件的重要桥梁,非常关键。算力方面,主要靠硬件实现,也就是各种实现AI功能的处理器,而随着应用和技术的发展,能实现各种算力、满足不同应用的AI处理器陆续登场,经过不同的发展阶段,发挥着各自的作用。


在比较成熟的AI平台方面,在2012年出现了AlexNet,一直到最近,2018年出现了AlphaGo Zero,在短短的6年内,算力提高了20多万倍,这完全不同于传统计算硬件(如CPU、MCU等)的演进轨迹,速度之惊人令我们难以预测。


来自OpenAI的分析显示,近几年,AI训练所需的算力每3个多月就会翻倍,这比著名的摩尔定律(每18~24个月,芯片的性能翻倍)演进速度快多了。而提升算力的关键是芯片设计,特别是底层的架构设计,目前来看,传统的芯片架构已经难以满足AI应用的需要。包括IC厂商和互联网企业在内,越来越多的厂商开始投入研发或已经推出AI专用芯片。根据Gartner统计,AI芯片在2017年的市场规模约为46亿美元,而到2020年,预计将会达到148亿美元,年均复合增长率为47%。而据麦肯锡预测,未来10年,人工智能和深度学习将成为提升硅片需求的主要因素,2025年,在AI的推动下,全球硅片营收将超过600亿美元,接近全球半导体销售额的20%。


三种AI芯片的对比


从AI芯片的应用场景类别来看,主要分为云端和终端。目前,AI在云端应用的更多,相对成熟,而其在云端应用又可分为训练和推理两种,其中训练的市场规模占比较高。另外,训练需要的数据量和计算量较大,所用的处理器主要是GPU。至于推理,也以GPU为主,此外,还有FPGA,以及专用的AI芯片(ASIC),其中,ASIC还不是很成熟,量产的产品也不多,因此用量有限,还处于发展初期,如果能实现大规模量产,其性能和成本是最优的,主要推进厂商是Google,其标志性产品就是TPU。


综上,目前,行业为实现AI计算,主要采用的芯片有三种,分别是通用型的GPU,可定制的FPGA,以及专用的ASIC。


在计算层面,芯片的晶体管数量和芯片面积决定了算力,面积越大算力越强,但功耗也将随之增加。过去几年,在AI处理器的选择上,可用于通用基础计算且运算速率更快的GPU迅速成为实现AI计算的主流芯片,英伟达也因此占据着数据中心AI芯片的主要市场份额。


FPGA是典型的半定制化芯片,其功能可以通过编程来修改,并行计算能力很强,但是延迟和功耗远低于GPU,而与ASIC相比,FPGA的一次性成本要低很多,但其量产成本很高。因此,在实际应用需求还未成规模,且算法需要不断迭代、改进的情况下,利用FPGA的可重构特性来实现半定制的AI芯片是最佳选择。


AI专用芯片ASIC是面向特定应用需求而定制的芯片,一旦流片,其功能无法更改,因此,必须要有量的保证,且应用需求稳定,不会发生大的变化。专用ASIC芯片的性能高于FPGA,如果出货量可观,其单颗成本可做到远低于FPGA和GPU。


目前来看,由于GPU具备强大的并行计算能力和完善的生态系统,现在云端AI应用方面处于主导地位。FPGA方面,由于是半定制化的,可以通过编程来实现不同的功能电路,因此,其在通用性和性能之间取得了比较好的平衡,但是较高的开发门槛和量产成本,对其应用是个限制。

图:在实现AI功能方面,GPU、FPGA和ASIC的优缺点对比(来源:长城证券研究所)


专用的AI芯片应该是未来的发展趋势,无论是在云端还是在边缘侧,随着应用的逐渐落地,应用场景和各种专用功能会愈加清晰,市场需求也会越来越多。另外,与GPU和FPGA相比,ASIC的专利壁垒要小得多,而且其设计难度也是最小的。随着AI应用场景的落地,专用的ASIC芯片量产成本低、性能高、功耗低的优势会逐渐凸显出来。


AI芯片案例


目前,在AI应用方面,全球数据中心用GPU市场基本被英伟达垄断,这里用到的都是高性能GPU,其门槛很高,又是用于AI,因此,还没有什么竞争对手。


除了GPU芯片本身之外,英伟达还有一个优势,那就是其在AI计算方面,有CUDA软件生态系统的配合。CUDA编程工具包让开发者可以对每一个像素轻松编程,在这之前,对程序员来说,GPU编程是一件很痛苦的事,CUDA成功将Java、C++等高级语言开放给了GPU编程,从而让GPU编程变得简单了许多,研究者也可以更低的成本快速开发他们的深度学习模型。以图形处理器加速卡Tesla V100 PCIe/SXM2为例,其芯片采用台积电的12nm制程工艺,通过与CUDA软件和NVLink快速通道的配合,能达到近125兆次深度学习的浮点运算训练速度,而以16bit的半精度浮点性能来看,可达到31Tera FLOPS。


FPGA方面,Altera被英特尔收购之后,赛灵思是目前的霸主,作为传统的CPU厂商,英特尔近几年正在AI领域大力布局,收购相关公司自然是一个重要手段,通过收购全面布局 FPGA和ASIC,除了Altera的FPGA之外,还通过收购Mobileye和视觉处理器公司Movidius,布局无人驾驶和计算机视觉,这也是将来AI大有可为的两个应用领域。


在收购Altera之后,英特尔的技术发展路线就出现了调整,例如,其原来的产品策略是做分立的CPU+FPGA加速器,而两家公司整合后,由简单的分立器件叠加改为了封装集成,即将CPU和FPGA芯片封装在一起,这还不算完,英特尔下一步还要将CPU和FPGA集成在同一芯片内,做成SoC。


赛灵思方面,该公司于2018年底推出了以低成本、低延迟、高能效深度神经网络(DNN)算法为基础的Alveo加速卡,基于该公司的UltraScale架构,采用了台积电的16nm制程工艺,目标市场就是数据中心和云端的AI推理市场。


AI专用ASIC方面,国内外已经有多家企业投入了研发,例如国内的寒武纪(正在开发NPU)、地平线(BPU系列),还有华为海思和比特大陆,也在专用AI芯片方面投入了不少资源。国外最为知名的就是谷歌的TPU了,这也是到目前为止,最为成熟的高性能AI专用芯片了。做ASIC需要对应用场景有深刻和精确到位的了解,而这方面却是传统芯片设计企业和IDM的短板,因此,目前做AI专用ASIC的,大多是系统产商,互联网巨头,或者以算法起家的公司。


在中国,比特大陆的算丰 (SOPHON) BM1680和BM1682云端安防及大数据AI推理系列产品已经上市,此外,还有其它几家没有量产的芯片,如华为海思的昇腾Ascend 910系列,据悉会采用台积电的7nm制程工艺,预计会在今年年底量产。此外,百度的昆仑芯片(采用三星的14nm制程),以及阿里平头哥的Ali-NPU等,也处在研发阶段,距离量产还有一段时日。


以上谈的主要是用于云端的AI芯片,包括GPU、FPGA和ASIC,这也是目前AI的主要应用领域,而在终端和边缘侧,更多的要依靠不断成熟的ASIC,因为ASIC与应用场景有着非常紧密的关系,而这里说的应用场景,主要是在终端和边缘侧。


结语


AI发展正处于强劲的上升阶段,此时,各种AI芯片实现方案都有其发挥的空间,可以说是处于最佳时期,这也给众多厂商占领各自擅长之应用市场提供了更多的机会。而随着应用场景的完全落地,以及AI专用芯片的成熟和大规模量产,这一发展窗口期很可能就将关闭,因此,眼下各家厂商,无论是做GPU、FPGA,还是做ASIC的,都在抓紧时间研发和拓展市场,竞争愈发激烈。


关键字:AI芯片 引用地址:3种AI芯片之间的争夺,未来谁是赢家?

上一篇:推动下一代云计算技术升级 阿里平头哥研发专用SoC芯片
下一篇:CHIPS联盟利用西部数据RISC-V内核和FuseSoC工具推出新项目

推荐阅读最新更新时间:2024-11-19 12:22

AI视觉芯片技术升级,加速智能终端设备迭代
近日,AR眼镜大热,多家科技公司正在布局该赛道,如,苹果正在研发廉价版Apple Vision,预计最快2025年上市;Meta计划于2024年9月25日展示首款智能AR眼镜。行业人士认为,AR眼镜有望成为AI落地的理想载体。 AI眼镜对视觉芯片的要求 AI智能眼镜作为新型可穿戴设备,既强调眼镜基础的近视/太阳镜属性,同时又有消费电子/AI技术赋能,它具备便携性和用户基础,能够感知用户的“视觉”和“听觉”。 说到视觉,AI眼镜需要视觉芯片的支持,它负责处理图像、视频等视觉信息,并支持AI算法的运行,以实现各种智能功能。AI眼镜对视觉芯片有哪些要求呢? AI眼镜的视觉芯片需要具备高性能的处理能力,以支持复杂的图像处理和AI算法运行。
[嵌入式]
寒武纪计划科创板IPO,继续与智能产业上下游深度合作
近日,中国证监会北京监管局官网披露,中科寒武纪科技股份有限公司已于 2019 年 12 月 5 日与中信证券签署 A 股上市辅导协议,并计划在科创板发行上市。 据悉,辅导内容主要包括:发行上市相关法律法规,公司法人治理结构,公司财务管理及内控体系,公司独立运行,关联交易及重大投资决策程序,公司发展战略,募集资金投资项目、信息披露等方面。 寒武纪科技由陈天石和其兄陈云霁联合创立于 2016 年,前身是中科院计算所 2008 年组建的“探索处理器架构与人工智能的交叉领域”10 人学术团队。取名“寒武纪”,是希望用地质学上生命大爆发的时代来比喻人工智能的未来。公司凭借首款寒武纪 1A 处理器大规模应用于智能手机当中,以及
[嵌入式]
寒武纪计划科创板IPO,继续与智能产业上下游深度合作
Google发布人工智能芯片TPU 3
TechCrunch 报导,Google CEO Sundar Pichai 8 日在 2018 年 Google I/O 大会发布第三代 TPU(Tensor Processor Unit,TPU3)。他说,TPU 3 机架丛集(Pod)的效能较去年 TPU 2 Pod 高出 8 倍,最高可达 100petaFLOPS。 Venture Beat 报导,Pichai 还提到 TPU 3 效能太强大了,为此旗下数据中心破天荒安装了液体冷却设备。 CNBC 报导,新款 TPU 可协助 Google 改善人工智能(AI)语音辨识度,找出照片与影片当中的特定物体并能理解文字背后所隐藏的情绪。Google 是在 2016 年发布第
[半导体设计/制造]
Socionext成功测试载有DNN引擎的低功耗AI芯片
SoC 设计与应用技术领导厂商Socionext Inc.(以下“公司”)宣布成功发开一款集成有量化深度神经网络(DNN)技术的原型芯片,可为小型、低功耗边缘计算设备提供先进的AI处理。 受日本新能源与产业技术综合开发机构(NEDO)委托,Socionext参与了以《先进的低功耗AI-Edge LSI技术开发》为课题的项目研究,成功完成了结合量化DNN技术的芯片测试,并确认了其运行和性能。该测试芯片搭载有“量化DNN引擎”,能以高速、低功耗执行深度学习推理处理。 目前,基于通用GPU的边缘计算处理器无法满足日益增长的人工智能处理需求。以搭载有图像识别和分析功能的边缘计算设备为例,其系统功耗和发热量与通用GPU相比有明
[嵌入式]
Socionext成功测试载有DNN引擎的低功耗<font color='red'>AI</font><font color='red'>芯片</font>
沃尔玛计划在今年使用英伟达的人工智能芯片建造神经网
  北京时间9月6日早间消息,如果人工智能不辜负外界的炒作,在未来几年成为人工智能最重要的组成部分,沃尔玛希望确保自己为此做好准备。   Global Equities Research分析师特里普·乔德利(Trip Chowdry)表示,这家零售巨头计划在今年剩余时间内使用英伟达的人工智能芯片建造一个神经网络集群。这个集群使得沃尔玛的OneOps内部应用开发和维护团队可以开发一系列神经网络,以便在现有应用和未来应用中训练人工智能。   人工智能未来可能成为零售行业的重大差异因素,这也是亚马逊今年斥资137亿美元收购全食超市的重要原因。全食超市可以为亚马逊AWS的人工智能团队提供大量消费者行为数据,用于研究和训练自己的人工智能系统。
[嵌入式]
意法半导体采用新思和微软提供的云上AI EDA工具开发芯片
欧洲芯片制造商意法半导体和芯片设计软件制造商新思科技周二表示,意法半导体首次使用在微软云上运行的人工智能软件来设计工作芯片。 ST表示,这一成就将有助于解决日益严重的问题,即在可接受的时间内完成越来越复杂的设计。 该公司是使用人工智能帮助设计芯片的几家公司之一。新思表示,他于2020年提供的工具已被用于帮助三星、SK 海力士和其他公司设计了超过 100 种不同的芯片。 芯片上数十亿个晶体管的准确布局对其最终性能有很大影响。工程师们使用新思等软件来摆放位置,对几种可能的设计进行多轮实验以找到最佳设计。 近年来的问题是芯片变得越来越复杂复杂,这意味着正确的设计需要进行越来越多的实验。 但业务截止日期并没有变长:客户仍然
[半导体设计/制造]
解读入围全球 AI 芯片排行榜的七家中国公司
近日,市场研究公司Compass Intelligence发布了最新研究报告,在全球前24名的AI芯片企业排名表中,英伟达(Nvidia)、英特尔(Intel)以及IBM分别位列前三名,中国公司占据七个席位,并且最高名次是排行第12的华为。 在Top24的榜单排行中,共有七家中国公司入围,他们是: 华为海思(HiSilicon)位列榜单第12名; 联发科(MediaTek)排第14名; Imagination排第15名; 瑞芯微(Rockchip)排第20名; 芯原(Verisilcon)排第21名; 寒武纪(Cambricon)排第23名; 地平线(Horizon)排第24名; 报告还提到,过去三年,这24家公司在AI芯
[嵌入式]
解读入围全球 <font color='red'>AI</font> <font color='red'>芯片</font>排行榜的七家中国公司
福布斯:AI芯片将会让手机无人机更聪明
     凤凰科技讯 北京时间5月8日,深度学习是AI技术的一个分支,许多大企业都在研究,比如谷歌、Facebook。在普通人看来,AI似乎只是大企业的玩物,实际上不是的,它不单会在云端普及,还会进入到芯片。福布斯专栏作家罗伯特·霍夫(Robert Hof)认为,具备AI功能的芯片会让手机、无人机、机器人、摄像头更加聪明。 下面是文章全文: 在人工智能(AI)中有一个分支叫深度学习,它带给我们许多惊奇,比如自动驾驶汽车,手机即时语言翻译。现在,深度学习试图为一切物件植入智能。 为什么会这样?因为硅芯片制造商开始将深度学习软件嵌入到自己的芯片中,尤其是嵌入到移动应用中;这些企业既包括大公司英特尔、高通,还包括许多小企业。
[手机便携]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved