人工智能在Hot Chips会上大放异彩

发布者:火星叔叔最新更新时间:2019-08-21 来源: 至顶网服务器频道关键字:人工智能  Hot  Chips 手机看文章 扫描二维码
随时随地手机看文章

今年Hot Chips(http://www.hotchips.org/)大会的时尚风标从发言上可以看出来,一半的发言都集中在人工智能加速上。Hot Chips是微处理器设计人员的年度聚会,曾几何时,大会大部分的讨论都集中在PC和服务器CPU上。 

                                              image.png

 

初创公司Cerebrus、Habana和UpMem都将推出新的深度学习处理器。 Cerebrus将发言描述备受期待的晶圆级整合器件。 Habana的推理芯片则已经发货,Habana会在大会上展示其培训后续工作。

 

总部位于法国格勒诺布尔的UpMem将公布一款新的内存处理器,该款内存处理器据说用了DRAM,可做多种用途。 Graphcore曾收到邀请但却未准备好分享芯片的更多细节。

 

这些创业公司将与英特尔等巨头展开竞争,英特尔将发言描述Spring Hill和Spring Crest,Spring Hill和Spring Crest是英特尔旗下基于Nervana架构的推理和训练芯片。阿里巴巴也将甚为罕见地披露一款嵌入式系统推理处理器。

 

另外,华为、MIPS、Nvidia和Xilinx也都将提供旗下有关现有深度学习芯片的新细节。预计MLPerf集团的成员将描述他们的数据中心和嵌入式系统推理基准,这是继以前训练基准的后续。

 

大会组织者希望华为的高级工程师能够谈谈华为的Ascend 310/910 AI芯片。但考虑到美中贸易战,目前还不清楚发言人是否能够获得签证或者会面临其他障碍。

 

Nvidia目前凭借旗下的V100在人工智能训练芯片市场占据着主导地位。鉴于Nvidia的市场领先优势,该公司今年选择了不推出新芯片。因此,Nvidia只会描述针对推理任务的多芯片模块研究工作,Nvidia称多芯片模块可在0.32-128 tera-操作/秒的范围内提供0.11皮焦耳/操作。

 

另外,美国三大顶级云计算提供商将提供有关旗下AI硬件的教程。三家提供商极少在不是他们举办的活动上谈这个话题,更不用说在有竞争对手发言的大会这样做了。

 

谷歌将发言描述旗下的液冷式第三代TPU的详细信息。微软Azure的代表将讨论微软下一代FPGA硬件。亚马逊AWS的成员将谈及旗下的I/O和系统加速硬件。

 

此外,Facebook工程师将描述Zion,Zion是在今年早些时候的开放计算峰会上宣布的多处理器训练系统。Hot Chips大会组织者表示,“Facebook及其开放计算合作伙伴在为数据中心服务器外形和互连方法敲定越来越多的标准。”

 

Insight64的资深微处理器分析师Nathan Brookwood表示,“假若瑞普·凡·温克尔(Rip Van Winkle,华盛顿•欧文所著《见闻札记》短篇故事的主人公,沉睡20年之久)在1999年睡了过去现在醒过来,时下对所有对机器学习和人工智能的关注会让他感到震惊,他开始睡觉时,这些几乎都只是些研究课题。”

 

他补充表示,但温克尔会对“今年Hot Chips大会议程上约一半的论文感到非常满意,因为这些论文是对过去会议相当直接的扩展。英特尔、AMD和IBM则仍在努力从温克尔已经知道的架构里获取更多性能。“

 

其实PC和服务器在此次大会中仍然备受关注。 AMD将讨论Zen2,Zen2是用于客户端和服务器系统的下一代x86内核。 IBM将展示业界认为是Power 10的下一代服务器处理器。

 

AMD的首席执行官Lisa Su将做主题演讲,是大会两个主题演讲中的一个。台积电公司研究小组的负责人也将就未来流程节点做主题演讲。

 

其他还有许多有趣的发言将大会议程排得满满的。特斯拉将提供旗下最近披露的有关自动驾驶汽车芯片的详细信息。英特尔将在另一发言里提供有关微软Optane存储器及其新兴封装技术的更多细节。

 

Hewlett-Packard Enterprise则将描述GenZ的第一个芯片组,GenZ是个分布式存储器和存储的开放接口,与许多新兴的存储器架构不兼容。另外,AyarLabs将描述旗下的TeraPHY高速互连。

 

大会的一个小小尴尬,大会将在AMD和Nvidia讨论完他们的最新面向高性能计算的GPU以后闭幕。 Brookwood表示,GPU曾经专注于开发游戏芯片,高性能计算对GPU而言是个相当新的领域。具有讽刺意味的是, Hot Chips以前都是将这段时间预留给服务器CPU的。

关键字:人工智能  Hot  Chips 引用地址:人工智能在Hot Chips会上大放异彩

上一篇:物联网未来展望
下一篇:英特尔力推开放零售倡议 携手京东星链零售物联平台

推荐阅读最新更新时间:2024-10-24 12:12

2024 Hot ChipsAI 处理器架构如何平衡速度与效率?
当前的人工智能领域,处理器设计正逐渐从追求绝对性能转变为寻求速度与效率之间的最佳平衡。 这一趋势在最近的Hot Chips 2024会议上得到了充分体现,多个领先的芯片制造商展示了新颖的微架构设计和改进的芯片封装技术,以应对当今复杂的计算需求和能源效率挑战。 随着大型语言模型(LLM)的迅猛发展以及异构计算架构的崛起,AI处理器正步入一个全新的时代——一个不再依赖单一计算元素,而是多种计算单元协同工作的时代。 Part 1 异构架构与芯片封装的演进 异构计算架构的兴起,特别是在2.5D和3.5D封装技术上的应用,标志着AI处理器设计进入了一个新阶段。异构计算是指在一个系统中使用多种类型的处理器,
[汽车电子]
2024 <font color='red'>Hot</font> <font color='red'>Chips</font>|<font color='red'>AI</font> 处理器架构如何平衡速度与效率?
2024 Hot Chips |适用于视觉和汽车的 AMD Versal AI Edge 系列第二代
在 Hot Chips 2024 大会上,AMD 推出了其 Versal AI Edge 系列的第二代产品(Gen 2),在边缘计算领域的重大进步。 Versal AI Edge Gen 2 芯片专为视觉和汽车应用设计,提供了从数据预处理到推理,再到结果后处理的全栈解决方案,且以低延迟为特点。这款新产品的技术特点和应用前景,以及它在边缘计算和汽车领域的重要性。 AMD Versal AI Edge Gen 2 继续沿用其前代产品的核心价值主张,即通过单个芯片替代多个芯片,简化了系统设计并提高了性能。 其设计目的在于提供一个端到端的工作流程,能够高效地处理从数据获取到最终推理的整个过程。这种集成方法尤其适用于对
[汽车电子]
2024 <font color='red'>Hot</font> <font color='red'>Chips</font> |适用于视觉和汽车的 AMD Versal <font color='red'>AI</font> Edge 系列第二代
四篇技术论文,英特尔在Hot Chips 2024大会上展示AI架构新进展
英特尔® 至强® 6系统集成芯片和Lunar Lake处理器,以及英特尔® Gaudi 3 AI加速器和OCI(光学计算互连)技术,领衔大会技术展示亮点 2024年8月27日——近日, 在2024年Hot Chips大会上,英特尔展示了其技术的全面与深度,涵盖了从数据中心、云、网络和边缘到PC的各个领域AI用例,并介绍了其业界领先且完全集成的OCI(光学计算互连)芯粒,可用于高速AI数据处理 。此外,英特尔还披露了关于英特尔® 至强® 6系统集成芯片(代号Granite Rapids-D)的最新细节,该产品预计将于2025年上半年发布。 英特尔网络与边缘事业部首席技术官Pere Monclus表示:“针对各种消费和企业级A
[网络通信]
四篇技术论文,英特尔在<font color='red'>Hot</font> <font color='red'>Chips</font> 2024大会上展示<font color='red'>AI</font>架构新进展
Hot Chips:英特尔推动“人工智能无处不在”
在2019年Hot Chips大会上,英特尔公布了即将推出的高性能人工智能(AI)加速器——英特尔® Nervana™神经网络处理器的最新细节,包括用于训练的NNP-T和用于推理的NNP-I。英特尔工程师还介绍了混合芯片封装技术、英特尔®傲腾™数据中心级持久内存和光学I/O小芯片技术的细节。 “要想实现‘人工智能无处不在’的未来愿景,我们必须解决数据的积压问题,确保企业能够有效利用数据,必要的时候在收集数据的地方对数据进行处理,并更明智地利用上游的数据和计算资源。数据中心和云端需要为复杂的AI应用提供高性能和可扩展的通用计算,以及专门的加速。在人工智能无处不在的未来愿景中,从硬件到软件再到应用,都需要一种全面的解决方案。”
[物联网]
人工智能Hot Chips会上大放异彩
今年Hot Chips(http://www.hotchips.org/)大会的时尚风标从发言上可以看出来,一半的发言都集中在人工智能加速上。Hot Chips是微处理器设计人员的年度聚会,曾几何时,大会大部分的讨论都集中在PC和服务器CPU上。 初创公司Cerebrus、Habana和UpMem都将推出新的深度学习处理器。 Cerebrus将发言描述备受期待的晶圆级整合器件。 Habana的推理芯片则已经发货,Habana会在大会上展示其培训后续工作。 总部位于法国格勒诺布尔的UpMem将公布一款新的内存处理器,该款内存处理器据说用了DRAM,可做多种用途。 Graphc
[物联网]
<font color='red'>人工智能</font>在<font color='red'>Hot</font> <font color='red'>Chips</font>会上大放异彩
Hot Chips 2017——人工智能近期的发展及其对计算机系统设计的影响(附PPT资料下载)
在刚刚结束的 2017 年国际高性能微处理器研讨会(Hot Chips 2017)上,微软、百度、等都发布了一系列方面的新信息,比如微软的 Project Brnwave、百度的 XPU、英特尔的 14nm 解决方案等。谷歌也不例外,在大会 keyno 中 Jeff Dean 介绍了人工智能近期的发展及其对系统设计的影响,同时他也对 TPU、 进行了详细介绍。文末提供了该演讲的地址。 在演讲中,Jeff Dean 首先介绍了的崛起(及其原因),谷歌在、医疗健康等领域取得的进展。 Jeff Dean 表示,随着深度学习的发展,我们需要更多的计算能力,而深度学习也正在改变我们设计计算机的能力。 我们知道,谷
[机器人]
曦智科技携全新光电计算产品亮相Hot Chips大会
美国西部时间8月29日,在斯坦福大学举行的全球芯片行业年度盛会Hot Chips大会上,全球光电混合计算领军企业曦智科技进行了全新光电计算产品Hummingbird的首次公开演示。 这是继美国西部时间8月8日发布Photowave之后,曦智科技一个月之内再次推出新产品。至此,曦智科技从光子矩阵计算(oMAC)、片上光网络(oNOC)、片间光网络(oNET)三大核心技术出发,打造的各系列产品均已推出首款硬件,完成了光子计算和光子网络两条产品线的最后一块“拼图”。 Hummingbird是首个用于特定领域人工智能(AI)工作负载的片上光网络(oNOC)处理器,采用先进封装技术,将光芯片和电芯片进行垂直堆叠,集成为一个系统级封装(S
[传感器]
曦智科技携全新光电计算产品亮相<font color='red'>Hot</font> <font color='red'>Chips</font>大会
NVIDIA在Hot Chips 2022上公布更多Grace信息
数据中心 AI供应商NVIDIA 本周在 Hot Chips 2022 研讨会上展示了公司更多产品的详细信息,包括即将推出的Grace CPU 架构、用于 HPC(高性能计算)和云工作负载的 Grace Superchip 实施,以及用于大规模 AI 训练的Grace Hopper架构——包括Grace CPU和 Hopper GPU的集成。这些新的 NVIDIA 多芯片模块产品标志着该公司首次涉足数据中心和超级计算核心 CPU 技术,并融合了其GPU技术。这也是数据中心中基于 Arm 的架构的一个重要里程碑。 剖析 NVIDIA 的超级芯片——Grace NVIDIA 的 Grace CPU 架构基于 Arm Neove
[嵌入式]
NVIDIA在<font color='red'>Hot</font> <font color='red'>Chips</font> 2022上公布更多Grace信息
小广播
最新物联网文章
换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved