英伟达六大客户,自研AI芯片
来源:内容来自周刊王 ,谢谢。
据科技媒体The Information昨天(7日)引述知情人士消息报导,微软、OpenAI、特斯拉、谷歌、亚马逊、Meta这六大科技公司正在研发自家的AI芯片,预计会与英伟达(Nvidia)的旗舰级微处理器H100 GPU竞争,且可能有助于降低成本及减少对英伟达AI芯片的依赖。
英伟达如今已是当之无愧的「AI算力王者」,A100/H100系列芯片占据金字塔顶部的位置,但用户面对英伟达的独霸天下,吃尽了成本高昂的苦头。据华尔街投行伯恩斯坦(Bernstein)的分析,ChatGPT单次查询的成本约4美分(约新台币1.2元),若要将搜寻量增长到谷歌的十分之一,每年将耗费约481亿美元的GPU,以及约160亿美元的芯片来维持运行。所以无论是为了降低成本,还是减少对英伟达的依赖、提高议价能力,科技巨头们都纷纷下场自研AI芯片。
微软计划在下个月的年度开发者大会上,推出该公司首款为人工智慧(AI)设计的芯片。事实上,The Information曾报导过,微软自2019年以来就一直在开发一款代号雅典娜(Athena)的专用芯片,用于为大型语言模型提供动力。该芯片将由台积电代工,采用5nm先进制程,计划最早于明年推出。
有分析师表示,开发类似于雅典娜的芯片可能每年需花费约1亿美元,ChatGPT每天的营运成本约70万美元,大部分来源于昂贵的服务器,如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本将可以降低三分之一。
OpenAI也正在探索制造自研人工智能芯片,并已开始评估潜在的收购目标。报导称,至少从去年开始,OpenAI就已讨论各种方案,以解决AI芯片短缺问题。OpenAI已与包括英伟达在内的其他芯片制造商更密切地合作,以及在英伟达之外实现供应商多元化。
电车大厂特斯拉则立足于智能驾驶,目前已经推出了两种自研芯片,分别为全自动驾驶(FSD)和Dojo D1芯片。FSD芯片用于特斯拉汽车上的自动驾驶系统;Dojo D1芯片则用于特斯拉超级计算机Dojo片,它是一种通用的CPU,目的是为了加速特斯拉自动驾驶系统的训练和改进。
谷歌也早在2013年,就已秘密研发一款专注于AI机器学习算法的芯片,并将其用在内部的云端计算数据中心中,以取代英伟达的GPU。这款自研芯片「TPU」于2016年公诸于世,可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型。谷歌实际上2020年便已在其数据中心部署了AI芯片TPU v4。不过直到今年4月才首次公开了技术细节。
亚马逊从2013年推出首颗Nitro1芯片至今,AWS是最先涉足自研芯片的云端厂商,已拥有网路芯片、伺服器芯片、人工智慧机器学习自研芯片3条产品线。AWS自研AI芯片版图包括推理芯片Inferentia和训练芯片Trainium。2023年初,专为人工智慧打造的Inferentia 2(Inf2)发布,将计算性能提高了三倍,加速器总内存提高了四分之一,可通过芯片间的直接超高速连接支持分布式推理,最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。
Meta直到2022年,还主要使用CPU和专为加速AI算法而设计的订制芯片组合来运行其AI工作负载,但CPU的效率往往不如GPU。后来Meta取消了于2022年大规模推出订制芯片的计划,转而订购了价值数十亿美元的英伟达GPU。为扭转局面,Meta已经在开发内部芯片,并于5月19日公布了AI训练与推理芯片项目。据介绍,该芯片的功耗仅为25瓦,占英伟达等市场领先供应商芯片功耗的一小部分,并使用了RISC-V(第五代精简指令处理器)开源架构。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3549期内容,欢迎关注。
推荐阅读
半导体行业观察
『 半导体第一垂直媒体 』
实时 专业 原创 深度
识别二维码 ,回复下方关键词,阅读更多
晶圆|集成电路|设备 |汽车芯片|存储|台积电|AI|封装
回复
投稿
,看《如何成为“半导体行业观察”的一员 》
回复 搜索 ,还能轻松找到其他你感兴趣的文章!