RISC-V 是一种于 2010 年首次推出的免费和开源计算机指令集架构,它的采用正像火箭一样起飞,其大部分燃料来自对人工智能和机器学习的需求。根据研究公司Semico的数据,到 2027 年,至少包含部分 RISC-V 技术的芯片数量将以每年 73.6% 的速度增长,届时将生产约 250 亿颗 AI 芯片,收入将达到2910 亿美元。Dave Ditzel 表示,从几年前还是一个新兴想法到今天,这一增长令人印象深刻,但对于AI来说,这也代表了翻天覆地的变化,他的公司Esperanto Technologies创造了第一个高性能 RISC-V AI处理器,旨在与AI推荐系统中强大的GPU竞争的处理器。根据 Ditzel 的说法,在早期对机器学习和人工智能的狂热中,人们认为通用计算机架构——x86和Arm——永远跟不上GPU和更专用的加速器架构。“我们开始证明那些人都错了,”他说。“RISC-V似乎是解决人们想为人工智能做的各种计算的理想基础。”随着该公司的第一款硅芯片——1092核AI处理器的发展,以及与英特尔的一项重大开发协议,他可能很快就会被证明是正确的。Ditzel 的整个职业生涯都是由RISC-V背后的理论定义的。RISC,代表精简指令集计算机。它的理念是,这个想法是,你可以通过精简它可以执行的核心指令集来制造一个更小、功耗更低但性能更好的处理器。IEEE研究员大卫·帕特森在1980年的一篇开创性论文中创造了这个词。他的学生Ditzel是合著者。Ditzel后来在贝尔实验室和太阳微系统公司从事RISC处理器的研究工作,之后又共同创立了Transmeta公司,该公司生产了一种低功耗处理器,旨在通过为RISC架构翻译x86代码来与英特尔竞争。对于Esperanto,Ditzel将RISC-V视为一种以相对低功耗加速人工智能的方法。在基本层面上,更复杂的指令集架构意味着需要更多的晶体管来组成处理器,每一个晶体管在关闭时都会漏出一点电流,而在切换状态时则会消耗电能。“这就是RISC-V吸引人的地方,”他说。“它有一个简单的指令集。”
RISC-V的核心是一组只有47条指令的集合。X86指令的实际数量很难枚举,但它可能接近 1000条。Arm 的指令集被认为要小得多,但仍比 RISC-V 大得多。但 Ditzel 表示,仅仅使用一组精简指令并不足以实现Esperanto所追求的计算能力。“大多数 RISC-V 内核都没有那么小或那么节能。因此,这不仅仅是我们采用 RISC-V 内核并将 1000 个内核放在芯片上的问题。我们必须完全重新设计 CPU,以使其适应那些非常严格的限制。”在 Ditzel 和他的同事开始工作时,RISC-V 指令集中明显缺少有效进行机器学习数学运算所需的“向量”指令,例如矩阵乘法。所以Esperanto工程师想出了他们自己的方法。正如处理器内核 ET-Minion 的架构所体现的那样,这些单元包括执行 8 位整数向量以及 32 位和 16 位浮点向量的单元。还有一些单元执行更复杂的“张量”指令,以及与数据有效移动相关的系统以及与芯片上 ET-Minion 内核的排列相关的指令。由此产生的系统芯片 ET-SoC-1 由 1088 个 ET-Minion 内核和四个称为 ET-Maxions 的内核组成,它们帮助管理 Minions 的工作。该芯片的 240 亿个晶体管占地 570 平方毫米。这使它的大小约为流行的 AI 加速器Nvidia A100的一半。这两个芯片遵循非常不同的理念。ET-SoC-1 旨在加速功率受限的数据中心中的 AI,该数据中心位于板的核心,适合已安装的服务器的外围组件互连快速 (PCIe) 插槽。这意味着该板只有 120 瓦的可用功率,但它必须提供每秒至少 100 万亿次操作才有价值。Esperanto在该功率范围内管理了超过 800 万亿次的能量。Esperanto.ai 首席架构师Jayesh Iyer 在 12 月的 RISC-V 峰会上对技术专家说,“大多数人工智能加速器都是围绕一个芯片构建的,该芯片占用了电路板的大部分电力预算,Esperanto的方法是使用多个低功耗芯片,这仍然符合功率预算。”在执行一个推荐系统基准神经网络时,每个芯片功耗为20W——不到A100的十分之一——电路板上有六个芯片。这种功率和性能的结合是通过降低芯片的工作电压而实现的,而没有预期的性能牺牲。(一般来说,更高的工作电压意味着你可以更快地运行芯片的时钟,完成更多的计算。)在0.75V(ET-SoC-1 制造过程的标称电压)的额定电压下,一块芯片将远远超出电路板的功率预算。但当电压降至0.4 V左右时,你可以在120W的芯片上运行6个芯片,与单一的高压芯片相比,推荐系统性能提升了4倍。在这个电压下,ET-Minion的每个核心仅消耗大约10毫瓦。Iyer表示:“低电压运行是Esperanto ET-minion(核心)设计的关键。它为架构和电路级别的决策提供了依据。例如,RISC-V 整数指令的内核流水线由每个时钟周期最少数量的逻辑门组成,从而在降低的电压下允许更高的时钟速率。当核心执行长张量计算时,该管道将关闭以节省能源。
其他最近开发的AI处理器也转向了RISC-V和他们自己定制的机器学习加速的组合。例如,Ceremorphic最近凭借其分层学习处理器脱颖而出,它使用 RISC-V 和 Arm 内核以及自己的定制机器学习和浮点运算单元。英特尔即将推出的MobileyeEyeQ Ultra将在芯片中配备 12 个 RISC-V 内核和神经网络加速器,旨在为 4 级自动驾驶提供智能。对于嵌入式AI处理器公司Kneron来说,使用RISC-V处理器既是一项商业举措,也是一项技术举措。该公司一直在销售使用Arm CPU内核和定制加速器基础设施的芯片和知识产权。但去年11月,Kneron在KL530上发布了首款基于RISC-V的技术,旨在通过一种名为视觉变压器的相对新型神经网络来支持自动驾驶。根据Kneron首席执行官Albert Liu的说法,RISC-V架构使得预处理神经网络模型变得更容易,从而使其运行更高效。不过,他表示:“考虑到英伟达去年可能收购Arm,此举可以降低我们在任何可能影响我们的商业决策方面的风险。”这笔交易在今年2月破裂,但它将把Kneron先前CPU核心架构的供应商置于竞争对手手中。未来的RISC-V处理器将能够使用社区同意的一套开源指令来处理与机器学习相关的操作。负责核心指令集架构和新扩展的机构RISC-V国际(RISC-V International)于2021年12月批准了一组100多条向量指令。该组织的首席技术官马克•希梅尔斯坦(Mark Himelstein)表示,“有了新的矢量指令,人们在人工智能领域做自己的事情就不必从头开始了。他们可以使用其他公司正在使用的指令。他们可以使用其他公司正在使用的工具。然后他们可以在实施、能耗、性能或其他任何方面进行创新。”Himelstein说,即使有了向量扩展,促进机器学习仍然是RISC-V社区的首要任务。大多数与机器学习相关的RISC-V扩展的开发都发生在该组织的图形特别兴趣小组,该小组与机器学习小组合并,“因为他们想要相同的东西,”他说。但是其他的小组,比如那些对高性能和数据中心计算感兴趣的小组,也在关注与机器学习相关的扩展。Himelstein的工作是确保各方的努力在力所能及的范围内趋同。尽管 RISC-V 取得了成功,但Arm 在许多添加了许多新 AI 功能的市场中仍是市场领导者,而且从现在起五年后仍可能如此,RISC-V 占据CPU核心设计市场份额的 15%左右。Semico Research 首席分析师Rich Wawrzyniak表示,这不是 50%,但也不是 5%。如果你想想 RISC-V 已经存在了多久,那是相当快速的增长。
关键字:AI芯片
引用地址:
RISC-V架构的AI芯片将无处不在
推荐阅读最新更新时间:2024-11-10 10:11
CEVA通过RISC-V扩展蓝牙和Wi-Fi IP平台
CEVA,全球领先的智能和互联设备的信号处理IP授权许可厂商 (纳斯达克股票交易所代码:CEVA) 宣布通过其市场领先的RivieraWaves蓝牙和Wi-Fi知识产权(IP)平台集成了可选的开源RISC-V MCU。 非营利性RISC-V基金会执行董事Rick O'Connor评论道:“RISC-V在IoT领域的发展势头十分强劲,其代码密度、性能和功耗特性非常合适这个领域。CEVA这样的领先IP供应商为RISC-V提供蓝牙和Wi-Fi连接解决方案,将会进一步推动我们的生态系统蓬勃发展。” CEVA的RivieraWaves系列提供一整套全面的IP和平台,可将蓝牙(低功耗和双模式)以及Wi-Fi 802.11 a/
[网络通信]
寒武纪:全球AI芯片界首个独角兽
8月18日,国内 AI 芯片初创公司 寒武纪 宣布已经完成1亿美元A轮融资,战略投资方可谓阵容豪华,阿里巴巴、联想、科大讯飞等企业均参与投资。而其公司也成为全球 AI 芯片界首个独角兽,受到国内外市场广泛关注。下面就随网络通信小编一起来了解一下相关内容吧。 据了解, 寒武纪 科技主要负责研发生产 AI 芯片,公司最主要的产品为2016年发布的 寒武纪 1A处理器(Cambricon-1A),是一款可以深度学习的神经网络专用处理器,面向智能手机、无人机、安防监控、可穿戴设备以及智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越传统处理器。目前已经研发出1A、1H等多种型号。 目前,英特尔、英伟达等芯
[网络通信]
巴基斯坦首个RISC-V处理器亮相
日前,由巴基斯坦UIT大学团队设计的首个RISC-V处理器正式亮相。据该国总统表示,该技术团队在首个RISC-V处理器上的表现非常出色。作为一个拥有大量人口的国家,他也认为发展巴基斯坦芯片和IT产业具有迫切性和重要性。 因为拥有开源等特性,RISC-V在过去几年里迅速发展。 据RISC-V International表示, RISC-V 开源处理器成员在 2021 年激增了 130%。RISC-V International 首席执行官 Calista Redmond 在去年年底接受 VentureBeat 采访时也指出,基金会截止受访时有 2,4278 名成员,比年初增长了 130%,还有 292 家公司,增长了 27.
[嵌入式]
比特大陆的野心:挺进AI芯片,深度学习领域欲与英伟达比高下
5月18日消息,据Cointelegraph报道,中国ASIC芯片制造商比特大陆(Bitmain)正在转向人工智能( AI )以寻求替代收入来源。下面就随网络通信小编一起来了解一下相关内容吧。 比特大陆联合创始人兼CEO吴忌寒称,人工智能领域需要大量计算,对比特大陆来说这是自然的选择。“不是我们,也会是英特尔、英伟达、AMD。” 吴忌寒还预测, AI 芯片在五年内可占据比特大陆收入的40%,他们只是试图做一些他们无法掌控很好的事情。 公开资料显示,2013年,吴忌寒说服了中科院毕业、大他十几岁的詹克团,两人联合创立矿机生产公司——比特大陆。 经过6年的发展,比特大陆现在已经成为了矿机领域的全球龙头:手握全球比
[网络通信]
对话英特尔宋继强:AI尚处婴儿期 现在拿芯片方案还早
英特尔 中国研究院院长宋继强接受采访 新浪科技 韩大鹏 “每位互联网用户每天生成的数据量将是1.5GB” “每辆无人驾驶汽车每天产生的数据量是4TB” “每架联网飞机每天生成的数据量是40TB” “每家云视频供应商每天产生的数据量高达750PB” …… 这是英特尔对2020年数据方面的预判,在万物互联的时代,数据洪流正汹涌而来。 近日,新浪科技等专访了英特尔中国研究院院长宋继强,在他眼中,数据是新的石油,当下英特尔已制定了数据战略,将借助云和数据中心、物联网、存储、FPGA以及5G构成的增长的良性循环,驱动云计算和数以亿计的设备实现互联。 新浪科技:近些年英特尔收
[嵌入式]
Google投入自家AI芯片 期望发挥带头角色
日前Google针对资料中心市场推出自家晶片Tensor Processing Unit (TPU),专门应付处理大量数据需求。评论指出,Google之所以推出该技术,主要出发点在于追求效能、降低耗能与带领其他业者一同加入打造TPU的行列。 据Network World报导,过去由IBM大型主机与升阳(Sun)伺服器处理的资料中心工作量自从受到诸如Google等云端业者带动后,更让英特尔(Intel)的PC硬体将其普及化,不过,日前Google公布自家TPU效能与架构详细研究报告后,上述情况恐将从此改变。 首先,TPU并非类似英特尔中央处理器(CPU)或NVIDIA绘图处理器(GPU)的晶片,而是属于机器学习的ASIC
[嵌入式]
福布斯:AI芯片将会让手机无人机更聪明
凤凰科技讯 北京时间5月8日,深度学习是AI技术的一个分支,许多大企业都在研究,比如谷歌、Facebook。在普通人看来,AI似乎只是大企业的玩物,实际上不是的,它不单会在云端普及,还会进入到芯片。福布斯专栏作家罗伯特·霍夫(Robert Hof)认为,具备AI功能的芯片会让手机、无人机、机器人、摄像头更加聪明。
下面是文章全文:
在人工智能(AI)中有一个分支叫深度学习,它带给我们许多惊奇,比如自动驾驶汽车,手机即时语言翻译。现在,深度学习试图为一切物件植入智能。
为什么会这样?因为硅芯片制造商开始将深度学习软件嵌入到自己的芯片中,尤其是嵌入到移动应用中;这些企业既包括大公司英特尔、高通,还包括许多小企业。
[手机便携]
苹果首款AI平板!曝iPad Pro OLED全球首发M4芯片
4月29日消息,Mark Gurman最新爆料显示,即将在5月份登场的iPad Pro很有可能会跳过M3,首发搭载苹果M4芯片。 对比M3,苹果M4芯片依然是台积电3nm工艺制程,主要升级了神经网络引擎,大幅提升了AI性能,新款iPad Pro将会是苹果第一款AI平板。 据悉,苹果神经网络引擎可提高机器学习任务的速度,例如视频分析、语音识别和图像处理,具体到iPad Pro上,神经网络引擎为解锁iPad时识别面容的算法提供技术支持。 除此之外,全新iPad Pro将首次采用OLED,其中11英寸的OLED面板将由LG Display和三星共同提供,而13英寸的OLED面板则将由LG Display独家供应,这种多元化的供应链策略有
[手机便携]