谁能从推理芯片中挣钱?
????如果您希望可以时常见面,欢迎标星????收藏哦~
来源 :内容 由半导体行业 观察(ID:i c ba nk)编译自编译自techspot,谢谢。
当今半导体领域的一个重要话题是认识到人工智能芯片的真正市场机会将是人工智能推理市场。我们认为这是有道理的,但我们开始怀疑是否有人会从中赚钱。
人工智能推理市场之所以重要有两个原因。首先,Nvidia似乎锁定了AI训练。诚然,AMD和英特尔在这个领域都有产品,但我们现在将这些产品归类为“理想”产品。目前,这是英伟达的市场。其次,人工智能推理市场可能比训练市场大得多。英特尔首席执行官帕特·基辛格对此有一个很好的类比——天气模型。只有少数实体需要创建天气预报模型(NASA、NOAA 等),但每个人都想查看天气。
人工智能也是如此,模型的效用将取决于最终用户使用模型的能力。因此,推理市场的重要性一直是我们最近参加的所有分析师和投资者活动中的一致主题,甚至 Nvidia 最近也改变了他们的定位,更多地谈论推理。
当然,推理市场有两个部分——云和边缘。云推理发生在数据中心,边缘推理发生在设备上。我们最近听到人们争论这两者的定义,界限可能会变得有点模糊。但我们认为,如果运营该模型的公司支付云推理的资本支出,如果最终用户支付边缘推理的资本支出(通过购买手机或 PC),那么细分就相当简单了。
云推理可能是最值得关注的竞赛。Nvidia 阐述了一个非常有力的案例来解释为什么他们将把训练领域的主导地位转移到推理领域。简而言之,有很多重叠之处,Nvidia 拥有 Cuda 和其他软件工具,使两者之间的连接变得非常容易。我们怀疑这会吸引许多客户,我们正处于一个“购买 Nvidia 不会被解雇”的时代,而且该公司在这里可以提供很多东西。
另一方面,他们的大竞争对手将非常努力地争夺这个市场份额。此外,可能会消耗大部分推理芯片的超大规模企业有能力打破对 Nvidia 的依赖,无论是通过设计自己的芯片还是充分利用竞争对手。我们预计这将成为未来几年备受关注的焦点。
边缘推理市场是一个更加开放的问题。首先,没有人真正知道人工智能模型将在多大程度上依赖边缘。运营这些模型的公司(尤其是超大规模企业)确实希望边缘推理占据主导地位。这将大大减少他们构建所有这些云推理数据中心所需花费的资金。我们怀疑,如果不可能的话,人工智能的经济学可能不会被淘汰。
话虽如此,这一愿景也有一个重要的警告——消费者真的愿意为人工智能付费吗?今天,如果我们询问普通消费者愿意支付多少钱在自己的计算机上运行 ChatGPT,我们怀疑答案将是 0 美元。是的,他们愿意每月支付 20 美元来使用ChatGPT,但他们是否愿意支付更多费用以使其在本地运行。这样做的好处尚不完全清楚,也许他们可以更快地获得答案,但从云端交付时 ChatGPT 已经相当快了。如果消费者不愿意为具有“人工智能功能”的个人电脑或手机支付更多费用,那么芯片制造商将无法对具有这些功能的芯片收取溢价。我们提到高通在智能手机领域面临这个问题,但同样适用于PC 领域的英特尔和 AMD。
我们已经向大家询问过此事,但尚未得到明确答复。现实情况是,我们不知道消费者愿意支付什么费用,因为我们并不真正知道人工智能将为消费者做什么。当受到压力时,我们采访过的半导体行业高管都倾向于默认某种版本的“我们已经看到了一些令人难以置信的演示,即将推出”或“我们认为微软正在研究一些令人难以置信的事情”。这些都是公平的答案,我们(还)不是成熟的人工智能怀疑论者,我们想象有一些令人难以置信的项目正在进行中。
这种对软件的依赖引发了一个问题:人工智能对于半导体制造商来说有多大价值。如果这些人工智能电脑的价值取决于软件公司(尤其是微软),那么很可能会认为微软将获得消费者人工智能服务的大部分价值。微软是这方面的专家。人工智能芯片的唯一推动力很有可能是引发一次性设备更新。这将在一两年内带来好处,但比一些公司制造人工智能的巨大机会要小得多。
原文链接
https://www.techspot.com/news/101432-opinion-anyone-going-make-money-ai-inference.html
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3639期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点 “在看” 分享给小伙伴哦