产业专家对AI芯片未来发展的预测

发布者:BlissfulAura最新更新时间:2018-09-30 来源: 半导体行业观察关键字:AI 手机看文章 扫描二维码
随时随地手机看文章

在加州山景城举办了 AI Hardware Summit 会议,这是目前唯一专门致力于开发用于神经网络和计算机视觉硬件加速器生态系统的活动。

 

会上,来自 AI 芯片初创企业、半导体公司、系统供应商/ OEM、数据中心、企业、金融服务、投资者和基金经理等 250 多位先进技术领导者们,为新兴的 AI 芯片市场构建了一幅全面的架构路线图。

 

本文作者 Brett Simpson 等人是市场研究机构 Arete Research 的高级分析师。在参加完本次会议后,他们将一些新的观察和所感写下来,形成了这份简短的小报告「AI Silicon: New Dawn for Compute」。从题目可以看出,作者非常看好 AI 芯片的前景。

 

以下是报告的中文译文:

 

人工智能硬件峰会的五大要点:

 

  • 几乎所有使 AI 计算加速的都是 7nm 芯片,由台积电制造。另外,我们还看到了一系列新的高速接口芯片 (Serdes 56 / 112gbs)。


  • 英伟达依旧是训练领域之王,我们将会看到其新款计算卡 Tesla T4(使用了全新的 12nm 制程工艺 图灵架构)的广泛使用。我们认为,它将在 2019 年继续占据主导地位。长远来看,我们对 AI 较少依赖于 CUDA 和 GPU 的状况感到担忧。


  • 我们认为 Intel 的 7nm AI 芯片(由台积电代工)支持 112GBs Serdes 和高速 DRAM。明年,在 Cascade Lake 服务器中,DL Boost INT8 会协助提高深度学习推理性能。


  • 所有的云计算服务商都在开发内部的芯片,加速计划是不公开的。这种垂直推进是对芯片制造商的一个主要威胁。


  •  在五年的时间中,我们看到:新的模拟计算机(神经形态)的进步,纳米线对数字计算的部分挑战,硅光子代替了 SerDes(112GBs 以上),以及更高速的存储器对 AI 性能提升的助益。


未来十年,AI 芯片将不仅是半导体领域最有前途的增长领域之一,还可能扰乱传统的计算机市场。

 

专门针对 AI 开发的软件还有 99%没写出来。如今,只有不足1% 的云服务器为AI加速服务(今年的服务器总数为 5 百万台),企业服务器则是几乎零举动。训练和推理的工作量正以较低的基数倍增,但市场似乎一致认为,今天的加速硬件(GPUs,CPUs, FPGAs)已经远远满足不了市场的需求——在我们看来,我们需要实现吞吐量的巨大飞跃(100 倍),以扩大 AI 的规模,并让 AI 变得无处无在。

 

好消息是,即将迎来结构性的创新,但是其作用需要一段时间才能显现出来。

 

2019 年以后,我们将看到:新的流程技术(7nm),新的计算机功能结构(芯片上的神经网络),新的芯片连接(56/112GBs SerDes),新的内存方法(HBM3,SRAM on-chip 等)和新的包装技术,所有这些都能大规模提升性能。

 

芯片行业正在进行创新反思,因为芯片的发展不能过多依赖制造业的萎缩来取得进展。机会来了。我们会继续看到,对长期投资 AI 芯片的投资者而言,投资台积电和主要的 DRAM 制造商仍是最佳选择。

 

我们上周参加了人工智能硬件峰会,了解了很多 AI 芯片替代品的现状。

 

有一件事是清楚的:我们从未见过如此多的公司(无论大小)像今天这样、进军新的芯片市场,毫无疑问,未来几年将会是一个令人着迷的时期,我们一定能见证这个市场的整合过程。

 

继谷歌的 TPU 领先之后,每个云计算服务商都在做内部的 AI 芯片。问题在于,要想影响市场的情绪,这一切需要的时间有多长。

 

毕竟,谷歌的 TPU 芯片已经到了第三代(2016 年中期推出第一代 TPU),但仍然承载不了 Tensorflow(或其他框架)所有工作量。我们认为,其他云计算服务商将在 2020 年验证并量产他们的第一款 AI 芯片。

 

造新的 AI 芯片,有两种通用方法。

 

第一种方法是,在系统上进行创新,以更快的 I/O 和外部内存接口(英伟达、英特尔等)为重点来扩展性能。

 

第二种方法是,把所有的数据集中保留在芯片上(芯片上的神经网络)——包括大量的小核和芯片内存,以减少对外部 DRAM 的需求。第二种方法将在未来 6 个月内实现第一批 AI 芯片的商业化,但我们认为,7nm 工艺才是促使市场为其买单的优势(也就是 2020 年的增长)。

 

围绕人工智能的软件栈在快速发展,云计算服务商也推出了开源适配器,以支持在其框架中运行的各种芯片(例如 Tensorflow XLA、Facebook Glow)。随着新神经网络的成熟,每个人都会认同可编程性和灵活性的重要性。

 

这意味着,7nm 芯片潜在的目标是,16 位浮点运算的运算能力至少要达到 10TOPS。人们真正关注的是如何通过提高效率来提高性能,如通过支持稀疏数据结构、降低精度、使用 mini-batching、加快芯片互联速度(112GB Serdes)、使用更快的内存接口(远超 HBM2),以及新的多芯片先进封装。

 

英特尔:AI 领域的玩家

 


 

当人们普遍不再依赖通用 CPU 时,也不再十分信任英特尔计划在未来几年内为 AI 引入一些新的优化措施这件事。

 

英特尔去年 (2017 年) 的 AI 收入约为 10 亿美元,Xeon CPUs 也将继续在 AI 推理和 AI 训练方面发挥重要作用。

 

例如,英特尔在 Cascade Lake 的服务器架构中添加了大量新的指令,以提高其推理性能(声称在精度为 INT8 的情况下、性能提升了 11 倍)。我们预计,这些扩展将与 AMD EPYC2 规格区别开来。

 

我们还相信,英特尔的下一个 ASIC 芯片(将于 2019 年采样)将由台积电代工(7nm),将具有一些关键的专有接口,这将显著提高它的性能。虽然当下 GPU 以低速(PCIE-3)与 CPU 相连,但是我们预计,新的服务器将 PCIE-4(16GB),仍会是数据输入 GPU 的关键瓶颈。

 

相比之下,我们认为,英特尔将在其 Xeon CPU 和 7nm Nervana 芯片之间构建专有接口,速度可达 112GB。英特尔正计划推出一种新的高带宽内存接口(这对云服务提供商来说,是一个关键的关注点),并积极参与新的多芯片包装。AI 的加速会导致更多的 CPU 被停用,英特尔正寻求通过围绕 Xeon 构建外围解决方案来获取价值。

 

时间会证明这是否有效,但为了在 2020 年对抗英伟达,这个目标十分明确。

 

英伟达:标准制定者

 


 

英伟达的 GPU 目前仍然是 AI 计算领域的王者,他们有实际的收益(支持所有的框架,所有的云计算服务商,所有的 OEM),他们的新品将有显著的性能提升——我们认为,其 T4 将被广泛采用,其新的 DGX2 服务器将在今年售罄。目前没有什么引人注目的替代品可供选择,我们认为,英伟达将继续占据主导地位(至少到 2019 年),但有两个主要问题让我们怀疑,英伟达是否能长期维持其领导地位:

 

首先,我们认为,很明显的一点是,随着谷歌和 ONNX 等公司的努力,英伟达的软件护城河 (CUDA) 将变得不那么重要。

 

云计算服务商正积极提供开源插件,用于替代芯片解决方案,以支持 Tensorflow、Pytorch、CNTK、coff2 等框架,从而降低进入新的 AI 处理器的软件门槛。

 

其次,是英伟达训练和推理芯片的经济性——虽然它们可以为许多 AI 工作节省 CPU,但是销售卡的超高利润率与昂贵的内存捆绑在一起(V100 是每张卡 1 万美元,P4 可能是每张卡 2000 美元),这只会让云端玩家拥抱其他架构。

 

图 1: 微软关于计算选择强调了我们的观点,即需要快速发展 GPU。

 

 

来源:微软在人工智能硬件峰会上的 PPT

 

尽管如此,英伟达有巨大的资源来超越竞争对手 (尤其是初创企业),它致力于每年为 AI 推出一种新的架构,可能在 2019 年首次推出 7nm 解决方案。

 

V100 和 T4 在很大程度上都被视为英伟达在 AI 领域的第一颗转换芯片(不再只是通用 GPU),因为它们是第一个支持张量核心和较低推理精度的芯片(INT8)。

 

随着英伟达 7nm 芯片的推出,我们期待,其性能在 2019 年会有另一个大的飞跃——有很多大幅提升吞吐量和延迟以提升效率的方法,我们预期,其下一代芯片更像以 AI 为中心的 ASIC,而不是 GPU。

 

云端的消费者告诉我们,他们使用 V100 GPU 来进行训练的频率很低(低至 15%),因为他们用 GPU 只是为了训练单一的神经网络。他们希望英伟达能将 GPU 虚拟化——尽管对 AI 计算的需求永无止境的,但这可能会给英伟达的 GPU 增长带来压力。

 

此外,英伟达如今拥有芯片对芯片的快速接口(NVlink2),运行速度为 25Gbs(远远超过仅 8GB 的 PCIE-3 或 16GB 的 PCIE-4)。我们预计,到 2019 年底,英伟达将支持 56Gbs 甚至 112 GB 的服务器,因为有些替代方案可以提升这些规格。

 

我们认为,英伟达的下一代架构将在 2019 年的 7nm 芯片上出现(超过 Volta / Turing),这将大大决定它能够在多大程度上拉开市场差距。

 

AI 芯片的替代品——即将到来

 


 

随着谷歌 TPU 的推出,每个云计算服务商内部都有了做 AI 芯片的项目,我们认为,这将在未来 18 个月内得到验证。

 

有些人公开表达了自己的意图。微软甚至在峰会上设立了招聘平台,这就是它渴望建立团队的表现。但有关这些项目的状况,我们无从得知:云计算服务商没有公开他们造芯计划的任何细节,所以我们不知道他们的项目进展。

 

我们认为,第一代转换芯片将像谷歌两年前对 TPU 的判断一样,专注于推理。Google Brain 的报告指出了一个具有讽刺意味的事实:当芯片行业达到摩尔定律的极限之际,AI 计算却出现了指数级增长,因此,架构(和软件协同设计)将成为关键的推动因素。

 

谷歌不仅使用 TPU 来处理越来越多的工作量,还用 GPU 测试大量即将上市的新系统。

 

这 50 多家创业公司的工作都是为了将他们的平台商业化,我们预计在未来 12 个月内会有 6 家公司推出首款转换芯片,将于 2020 年推出第二款(7nm 芯片)。

 

即使一些人工智能初创企业2019 年的销售额就可能达到 1 亿美元,但我们认为,到 2020 年才会有人超越这个数字。有许多令人印象深刻的初创公司,但其中许多还没有流片,因此很难对其性能进行验证。

 

云计算服务商们希望了解新的 AI 芯片的系统性能,因此,他们帮助建立了一个新的基准测试标准,名为 MLPerf。

 

我们认为,这将是分析特定模型的训练时间 (如果不要求准确性) 的关键标准,也有助于与目前市场领军者英伟达的培训平台进行比较 (英伟达尚未加入 MLPerf)。

 

很明显的一点是,许多初创企业以前从未进入过主要的云数据中心,也从未在前沿制造过芯片。

 

此外,只有少数参与者之前与云有密切的关系、在以云计算芯片为关键任务构建一个工程团队方面有丰富的经验。

 

表格 1:MLPerf 将通过一系列数据集和模型限制 AI 芯片的训练时间

 

来源:MLPerf.com

 

云加速:巨大的市场机遇

 

以今天一台典型的云服务器配置为例(包括 2 个插座,10 核 Xeon E5 就是最受欢迎的销售平台之一),有大约 660 毫米的裸片大小来处理主 CPU 计算 (即两个 330 毫米的 CPU 芯片),主要由英特尔提供。但是,针对 AI 加速的服务器(比如英伟达 DGX-1)已经有多达 10 倍的硅芯片大小来处理计算加速,正如图 2 所示。

 

图 2:与大多数 Xeon 服务器相比,AI 加速训练服务器的芯片面积增加了大约 10 倍

 

来源:Arete Research. 基于 NVDA 的 DGX-1V 服务器的模具区域。 

 

这个裸芯片大小与 CPU 裸芯片大小的比率只会增加,因为随着时间的推移,每 CPU 4 个加速卡会上升到 6 个和 8 个。

 

我们相信,谷歌正计划明年将 TPU 芯片数量增加两倍。在训练应用中,英伟达的芯片需求量会继续大幅增长,而且从 2020 年开始,一大批人工智能创业公司将崛起。

 

但是,鉴于人工智能服务器目前在市场上的渗透率很低 (今年购买的云服务器中,只有不到 1% 的服务器支持加速度),长远来看,台积电机遇很大。

 

如果我们假设这种渗透率上升到 100 万加速 AI 服务器(今年低于 5 万),并且裸芯片大小通过缩小(即每台 AI 服务器 6,560mm)保持不变,这将转化为大约每年 20 万晶圆,或 30 亿美元的代工收入(假设每片晶圆 15,000 美元,收益率 55%)。这就是为什么我们继续认为台积电将作为 AI 芯片的长期关键受益者之一。

 

长远来看,还有哪些新技术?

 

峰会期间还有许多其他新兴技术在 3 - 5 年的视野中看起来很有趣。

 

显然,人工智能的边缘计算正在智能手机中进行,我们坚信每部智能手机都将在未来 2 - 3 年内拥有专用的计算机视觉 AI 处理器(在相机周围)。

 

谷歌的 Edge TPU 和英伟达的 DLA 是早期可授权的例子,我们看到 ARM 现在提供专用的 AI 许可证解决方案,而 Qualcomm,华为海思和寒武纪以及联发科则提供一系列智能手机和物联网解决方案。

 

一系列具有增强 AI 规格的嵌入式 SOC 即将推出,适用于相机,机器人,汽车等。英伟达的 Xavier 就是一个例子。我们将在即将发布的报告中研究自动驾驶汽车的汽车路线图,其中,AI 加速将发挥核心作用。

 

从长远来看,尽管存在摩尔定律的挑战,我们仍可以看到正在开发的一些新技术,以扩展计算性能。

 

其中一个更令人印象深刻的演讲来自 Rain Neuromorphics 和 Mythic,他们从五年的时间角度,谈了谈模拟计算商业化,比如使用类似大脑突触那样的松散几何形状,解决功率限制。

 

此外,Ayar Labs 阐述了为什么他们在硅光子微型化方面的突破,将导致更快的芯片互连(超过 112GB Serdes)的解决方案。

 

随着 Exascale 计算机预计将在 3 - 4 年内出现在我们面前,我们认为,人工智能正在全面推动反思,以实现性能的指数增长。

 

必要的披露

 

整体行业风险:算法变化可能需要比预期更长的时间,ETH 价格可能上涨到足以抵消近期的回报阻碍和难度变化,并且可能出现一种新的 GPU 可挖掘的加密货币,从而推动 GPU 需求。

 

不断恶化的全球经济环境可能会影响半导体行业,迅速造成严重的供过于求,晶圆厂利用不足,平均售价下降或库存减少。在 09 年期间,半成品销售下降 10%(外存储)。所有部门的竞争都很激烈。

 

智能手机领域是一个充满活力的市场,有数十家厂商生产着需要复杂软硬件集成技能的产品。虽然所谓「旗舰」设备的市场空间受到区分「黑色平板」(即主要运行 Android OS 的标准触摸屏设备) 困难的限制,但是,很难预测哪一家厂商与哪种特定型号相关。

 

 


关键字:AI 引用地址:产业专家对AI芯片未来发展的预测

上一篇:研华发布首款基于“中国芯”ARM高性能处理器工业运算平台
下一篇:推动物联网商业化,Semtech发布设计合作伙伴计划

推荐阅读最新更新时间:2024-03-30 23:55

聚首泉城,广开言路,赋能AI发展
经过60余年的发展,AI在算法、算力和算料(数据)“三算”方面取得了重要突破,处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。而这期间也会催生新技术、新产品、新产业、新模式,引发经济结构重大变革,对未来企业的发展带来机遇与挑战。2019中德中小企业合作交流大会·AI分论坛在泉城济南成功举办。本次论坛由济南高新技术产业开发区管委会 、济南市科学技术局、山东国惠安创智能物联发展有限公司主办,安创加速器(Arm Accelerator)、济南高新区齐鲁软件园发展中心承办。 期间在AI分论坛上,聚焦于人工智能和物联网产业的创新创业服务平台“安创加速器”举行揭牌仪式。济南高新区管委会常务副主任寇梅、济南市科学技术
[物联网]
聚首泉城,广开言路,赋能<font color='red'>AI</font>发展
“芯痛”之下阿里苦心研发NPU AI芯片究竟哪款PU更厉害?
  4月19日,有消息称,阿里巴巴达摩院正在研发一款神经网络芯片——Ali-NPU,主要运用于图像视频分析、机器学习等 AI 推理计算。按照设计,这款芯片性能将是目前市面上主流CPU、GPU架构 AI 芯片的10倍,而制造成本和功耗仅为一半,其性价比超过40倍。下面就随网络通信小编一起来了解一下相关内容吧。   应用上,通过此款芯片的研发将会更好的落地在图像、视频识别、云计算等商业场景中。据阿里达摩院研究员骄旸介绍说:“CPU、GPU作为通用计算芯片,为处理线程逻辑和图形而设计,处理 AI 计算问题时功耗高,性价比低,在AI计算领域急需专用架构芯片解决上述问题。阿里巴巴此款Ali-NPU在AI领域积累了大量算法模型优势,以最小成本
[网络通信]
智己汽车上海车展发布AI4M智能战略
4月18日,智己汽车于上海车展首日正式发布“AI4M智能战略”,通过“软硬件架构”、“大规模智能算法”和“智能场景体验”三大支点,将AI变革的巨力聚向“忠于用户出行”。 同时,智己汽车的VMC中央协调运动控制器、全Linux内核舱驾融合系统、D.L.P 人工智能模型等领先智能科技将在未来2到3年内通过四款车型,大规模量产上车。 据介绍,AI4M智能战略的意义在于,规划了明确的智能场景设计和实践目标。例如,AI赋能的汽车将获得全场景感知智能,实现窄路循迹原路返回、精准贴边停车等老司机都难以做到的精准行为。再例如,“驾舱融合影像”功能,将帮助驾驶者无死角消除A柱盲区、侧盲区,提供后视影像等,彻底解决视角盲区痛点。 为
[汽车电子]
智己汽车上海车展发布<font color='red'>AI</font>4M智能战略
人工智能如何通过更好地倾听来改变客户体验
近年来,人工智能在人类语言处理中的应用有了重大突破。例如OpenAI公司开发了一种革命性的人工智能模型,可以阅读、理解和书写,几乎与人类的能力水平相当。该公司是一家由伊隆·马斯克提供支持的非盈利研究机构。 OpenAI公司认为这一技术突破很可能带来更大的风险,以至于没有共享这一技术的代码,而是发布了限量版本。在此将深入探讨这一里程碑的发展,并介绍企业在利用人工智能驱动的自然语言处理方面的进展。 是什么使这一突破如此显著(并且可能具有危险性)? OpenAI公司通过从互联网上800万页资料来训练大规模语言模型,然后该模型使用这种学习来生成给定句子中的下一个单词。然而,令研究人员感到惊讶的是,它如此熟练,以至于它可以在只有一个主句
[机器人]
人工智能电视的选择,智能和智障往往只有一步之遥
“智能”一词,是近年来被提及最多的词汇,无论是对于产品还是对各个行业,无不透漏着这已经是人工智能的时代了。当然,“智能”也为我们的生活带来了诸多便利。 而与我们的日常生活紧密相关的家电产品当然也不例外,乘着“智能”风,推陈出新的带来了更优秀更有品质的产品。就拿我们家中离不开的电视来说吧,过去我们只能看一些卫视,电视台等节目。而如今不同了,电视有了更多的功能,不仅可以看电影,追溯失去的光阴,而且还能够智能操控,不用动手调台一键语音即可观看,可见是十分的方便。 根据2018年以及2019年前三个月主要电视厂商的新品发布来看,未来电视将朝着更智能、更大屏、更高端、更具差异化的方向发展,人工智能电视的时代已然到来。 然而现如今
[嵌入式]
<font color='red'>人工智能</font>电视的选择,智能和智障往往只有一步之遥
以工业界思维破解AI落地场景碎片化难题
AI从前两年的概念泛起,如今正逐渐走向落地应用阶段,然而,从厂商和用户的普遍反馈来看,人工智能在安防领域的落地应用似乎并没有大众想象中的顺利,开始有越来越多诸如场景碎片化、应用成本高、实验室场景到实际应用场景效果差距较大等问题被暴露出来,而这些也成为当前阶段AI落地应用过程中新的痛点。其中,对于产品和解决方案提供商而言,AI应用场景的碎片化更成为工程项目亟待解决的问题。 AI作为一种应用技术,有通用型市场,也有垂直市场。第一种情况下诞生了AI+行业的第一批人工智能公司;当AI通用技术从普及到往行业深扎的过程中,会出现行业+AI的第二批人工智能公司。在跟场景数据强相关的市场上,必然会出现垂直型的行业+AI公司。 AI技术下沉激发
[机器人]
康泰瑞影参与深度学习研究联盟获得政府资助
瑞典斯德哥尔摩——2017年4月10日——康泰瑞影是一家专注于图像分析和人工智能的医疗技术公司。近日,由康泰瑞影参与组成的一个深度学习研究联盟已获得500 000瑞典克朗的资助,由瑞典政府专门资助创新机构的瑞典创新局提供。 该项目用于评估深度学习能否提供较目测检验更为准确、更为可靠的图像分析结果。研究重点是明确界定的癌症患者群体,并为该群体提供治疗前后以及随访时的PET/CT图像。 联盟包括两家知名机构:瑞典皇家理工学院和卡罗林斯卡学院;以及两个商业合作伙伴,其中就包括康泰瑞影。 康泰瑞影的首席执行官Anita Tollstadius称:“这是一群非常杰出的并具有高超研究技能的研究人员。我们以被选为该项目的密切研究合作伙伴
[医疗电子]
豪威集团在AutoSens展会上首次推出人工智能专用集成电路
豪威集团在AutoSens展会上首次推出人工智能专用集成电路OAX4600——可同时用于驾驶员/乘员监控系统的耐用且高度集成的ISP和NPU OAX4600 可实现无缝隙的驾驶员/乘员监控系统功能和灵活的汽车设计,在较小的封装内集成低功耗的RGB-IR ISP和两个NPU 加利福尼亚,圣克拉拉 – 2022年5月4日 – 豪威集团 ,全球排名前列的先进数字成像、模拟、触屏和显示技术等半导体解决方案开发商,当日发布用于 汽车行业的高级人工智能专用集成电路(ASIC) ,该产品能以无缝方式同时为专用的驾驶员/乘员监控系统(DMS/OMS)供电。该产品采用晶片堆叠架构提供集成的RGB-IR图像信号处理(ISP),在单个低
[汽车电子]
豪威集团在AutoSens展会上首次推出<font color='red'>人工智能</font>专用集成电路
小广播
添点儿料...
无论热点新闻、行业分析、技术干货……
最新物联网文章
换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved