Hot Chips大会:英特尔公布神经网络处理器的最新细节

发布者:喜悦的38号最新更新时间:2019-08-24 来源: eefocus关键字:Hot  Chips  英特尔  人工智能 手机看文章 扫描二维码
随时随地手机看文章

在2019年Hot Chips大会上,英特尔公布了即将推出的高性能人工智能(AI)加速器——英特尔® Nervana™神经网络处理器的最新细节,包括用于训练的NNP-T和用于推理的NNP-I。英特尔工程师还介绍了混合芯片封装技术、英特尔®傲腾™数据中心级持久内存和光学I/O小芯片技术的细节。

 

 “要想实现‘人工智能无处不在’的未来愿景,我们必须解决数据的积压问题,确保企业能够有效利用数据,必要的时候在收集数据的地方对数据进行处理,并更明智地利用上游的数据和计算资源。数据中心和云端需要为复杂的AI应用提供高性能和可扩展的通用计算,以及专门的加速。在人工智能无处不在的未来愿景中,从硬件到软件再到应用,都需要一种全面的解决方案。”

 

——Naveen Rao,英特尔公司全球副总裁兼人工智能产品事业部总经理

 

将数据转化为信息、再转化为知识,需要硬件架构和封装、内存、存储、互连技术的相互配合,这些技术不断演进并支持新兴且日益复杂的应用场景和AI技术。AI专用加速器能够在适当的时间为客户提供合适的智能,比如全新构建的英特尔Nervana NNP。

 

英特尔Nervana NNP-T——全新构建,旨在大规模训练深度学习模型。英特尔Nervana NNP-T(神经网络处理器)不断突破深度学习训练的极限。它优先考虑两个关键的实际因素:尽可能快地训练网络并在给定的功率预算内完成训练。这款深度学习训练处理器在构建时充分考虑到灵活性,并在计算、通信和内存之间取得平衡。虽然英特尔®至强®可扩展处理器增加了AI指令集并为人工智能奠定良好基础,但全新构建的NNP-T考虑到了应对大型模型所需的功能特性和要求,不必提供额外所需以支持传统技术。为了满足未来的深度学习需求,英特尔Nervana NNP-T具备灵活性和可编程性,因此可以进行定制,以便加速各种负载,无论是现有负载还是新兴负载。

 

英特尔Nervana NNP-I——针对主要数据中心负载的高性能深度学习推理。英特尔Nervana NNP-I专为推理而设计,旨在大规模加速深度学习部署,它充分利用英特尔的10纳米制程技术和Ice Lake内核,在所有主要数据中心负载上提供业界领先的每瓦性能。此外,英特尔Nervana NNP-I在不影响性能或功耗效率的前提下,提供了高度可编程性。随着人工智能在各项负载中变得无处不在,拥有一个易于编程、时延较短、可快速移植代码并支持所有主要深度学习框架的专用推理加速器,企业就能将数据的全部潜力转化为可践行的洞察而加以利用。

 

Lakefield——三维封装中的混合核心。Lakefield是业界首款采用3D堆叠和IA混合计算架构的产品,将用于新一类移动设备。利用英特尔最新的10纳米制程和Foveros先进封装技术,Lakefield在待机功率、核心面积和封装高度上都比前几代技术有了显著降低。Lakefield带来的顶级计算性能和超低热设计功率,让全新纤薄外观的设备、二合一设备和双屏设备都能以极低的待机功耗始终在线、始终互联。

 

TeraPHY——用于高带宽、低功耗通信的封装内光学I/O小芯片。英特尔和Ayar Labs共同演示了整体内封光件(MIPO)与高性能系统芯片(SOC)的业界首次集成。Ayar Labs的TeraPHY*光学I/O小芯片与采用英特尔嵌入式多芯片互连桥接(EMIB)技术的英特尔Stratix 10 FPGA共同封装,从芯片封装中提供高带宽、低功耗的数据通信,在一定时间内的延续距离高达2公里。此次合作将消除数据传输中性能、功耗和成本的固有瓶颈,帮助以新方法为摩尔定律的下一阶段构建计算系统。

 

英特尔傲腾数据中心级持久内存——架构和性能。现已批量出货的英特尔傲腾数据中心级持久内存是内存/存储层级结构中首款被称为持久内存的产品,并处于整个层级结构中全新的一层。基于英特尔® 3D XPoint™技术,傲腾数据中心级持久内存拥有内存模块外形,能够以接近内存的速度提供超大容量,纳秒级的低延时,并提供本地化的持久存储。两种运行模式(内存模式和App Direct模式)的详细信息以及性能示例展示了这一全新层级如何支持数据供应子系统的完全重新架构,从而支持更快的,以及新的工作负载。


关键字:Hot  Chips  英特尔  人工智能 引用地址:Hot Chips大会:英特尔公布神经网络处理器的最新细节

上一篇:智能仓储的标准化之路,我们还差哪些?
下一篇:智能楼宇中的隔离模块的应用与分析

推荐阅读最新更新时间:2024-10-21 23:50

四篇技术论文,英特尔Hot Chips 2024大会上展示AI架构新进展
英特尔® 至强® 6系统集成芯片和Lunar Lake处理器,以及英特尔® Gaudi 3 AI加速器和OCI(光学计算互连)技术,领衔大会技术展示亮点 2024年8月27日——近日, 在2024年Hot Chips大会上,英特尔展示了其技术的全面与深度,涵盖了从数据中心、云、网络和边缘到PC的各个领域AI用例,并介绍了其业界领先且完全集成的OCI(光学计算互连)芯粒,可用于高速AI数据处理 。此外,英特尔还披露了关于英特尔® 至强® 6系统集成芯片(代号Granite Rapids-D)的最新细节,该产品预计将于2025年上半年发布。 英特尔网络与边缘事业部首席技术官Pere Monclus表示:“针对各种消费和企业级A
[网络通信]
四篇技术论文,<font color='red'>英特尔</font>在<font color='red'>Hot</font> <font color='red'>Chips</font> 2024大会上展示<font color='red'>AI</font>架构新进展
Hot Chips英特尔推动“人工智能无处不在”
在2019年Hot Chips大会上,英特尔公布了即将推出的高性能人工智能(AI)加速器——英特尔® Nervana™神经网络处理器的最新细节,包括用于训练的NNP-T和用于推理的NNP-I。英特尔工程师还介绍了混合芯片封装技术、英特尔®傲腾™数据中心级持久内存和光学I/O小芯片技术的细节。 “要想实现‘人工智能无处不在’的未来愿景,我们必须解决数据的积压问题,确保企业能够有效利用数据,必要的时候在收集数据的地方对数据进行处理,并更明智地利用上游的数据和计算资源。数据中心和云端需要为复杂的AI应用提供高性能和可扩展的通用计算,以及专门的加速。在人工智能无处不在的未来愿景中,从硬件到软件再到应用,都需要一种全面的解决方案。”
[物联网]
Hot Chips大会:英特尔公布神经网络处理器的最新细节
在2019年Hot Chips大会上,英特尔公布了即将推出的高性能人工智能(AI)加速器——英特尔® Nervana™神经网络处理器的最新细节,包括用于训练的NNP-T和用于推理的NNP-I。英特尔工程师还介绍了混合芯片封装技术、英特尔®傲腾™数据中心级持久内存和光学I/O小芯片技术的细节。 “要想实现‘人工智能无处不在’的未来愿景,我们必须解决数据的积压问题,确保企业能够有效利用数据,必要的时候在收集数据的地方对数据进行处理,并更明智地利用上游的数据和计算资源。数据中心和云端需要为复杂的AI应用提供高性能和可扩展的通用计算,以及专门的加速。在人工智能无处不在的未来愿景中,从硬件到软件再到应用,都需要一种全面的解决方案。”
[嵌入式]
2024 Hot ChipsAI 处理器架构如何平衡速度与效率?
当前的人工智能领域,处理器设计正逐渐从追求绝对性能转变为寻求速度与效率之间的最佳平衡。 这一趋势在最近的Hot Chips 2024会议上得到了充分体现,多个领先的芯片制造商展示了新颖的微架构设计和改进的芯片封装技术,以应对当今复杂的计算需求和能源效率挑战。 随着大型语言模型(LLM)的迅猛发展以及异构计算架构的崛起,AI处理器正步入一个全新的时代——一个不再依赖单一计算元素,而是多种计算单元协同工作的时代。 Part 1 异构架构与芯片封装的演进 异构计算架构的兴起,特别是在2.5D和3.5D封装技术上的应用,标志着AI处理器设计进入了一个新阶段。异构计算是指在一个系统中使用多种类型的处理器,
[汽车电子]
2024 <font color='red'>Hot</font> <font color='red'>Chips</font>|<font color='red'>AI</font> 处理器架构如何平衡速度与效率?
2024 Hot Chips |适用于视觉和汽车的 AMD Versal AI Edge 系列第二代
在 Hot Chips 2024 大会上,AMD 推出了其 Versal AI Edge 系列的第二代产品(Gen 2),在边缘计算领域的重大进步。 Versal AI Edge Gen 2 芯片专为视觉和汽车应用设计,提供了从数据预处理到推理,再到结果后处理的全栈解决方案,且以低延迟为特点。这款新产品的技术特点和应用前景,以及它在边缘计算和汽车领域的重要性。 AMD Versal AI Edge Gen 2 继续沿用其前代产品的核心价值主张,即通过单个芯片替代多个芯片,简化了系统设计并提高了性能。 其设计目的在于提供一个端到端的工作流程,能够高效地处理从数据获取到最终推理的整个过程。这种集成方法尤其适用于对
[汽车电子]
2024 <font color='red'>Hot</font> <font color='red'>Chips</font> |适用于视觉和汽车的 AMD Versal <font color='red'>AI</font> Edge 系列第二代
人工智能Hot Chips会上大放异彩
今年Hot Chips(http://www.hotchips.org/)大会的时尚风标从发言上可以看出来,一半的发言都集中在人工智能加速上。Hot Chips是微处理器设计人员的年度聚会,曾几何时,大会大部分的讨论都集中在PC和服务器CPU上。 初创公司Cerebrus、Habana和UpMem都将推出新的深度学习处理器。 Cerebrus将发言描述备受期待的晶圆级整合器件。 Habana的推理芯片则已经发货,Habana会在大会上展示其培训后续工作。 总部位于法国格勒诺布尔的UpMem将公布一款新的内存处理器,该款内存处理器据说用了DRAM,可做多种用途。 Graphc
[物联网]
<font color='red'>人工智能</font>在<font color='red'>Hot</font> <font color='red'>Chips</font>会上大放异彩
Hot Chips 2017——人工智能近期的发展及其对计算机系统设计的影响(附PPT资料下载)
在刚刚结束的 2017 年国际高性能微处理器研讨会(Hot Chips 2017)上,微软、百度、等都发布了一系列方面的新信息,比如微软的 Project Brnwave、百度的 XPU、英特尔的 14nm 解决方案等。谷歌也不例外,在大会 keyno 中 Jeff Dean 介绍了人工智能近期的发展及其对系统设计的影响,同时他也对 TPU、 进行了详细介绍。文末提供了该演讲的地址。 在演讲中,Jeff Dean 首先介绍了的崛起(及其原因),谷歌在、医疗健康等领域取得的进展。 Jeff Dean 表示,随着深度学习的发展,我们需要更多的计算能力,而深度学习也正在改变我们设计计算机的能力。 我们知道,谷
[机器人]
曦智科技携全新光电计算产品亮相Hot Chips大会
美国西部时间8月29日,在斯坦福大学举行的全球芯片行业年度盛会Hot Chips大会上,全球光电混合计算领军企业曦智科技进行了全新光电计算产品Hummingbird的首次公开演示。 这是继美国西部时间8月8日发布Photowave之后,曦智科技一个月之内再次推出新产品。至此,曦智科技从光子矩阵计算(oMAC)、片上光网络(oNOC)、片间光网络(oNET)三大核心技术出发,打造的各系列产品均已推出首款硬件,完成了光子计算和光子网络两条产品线的最后一块“拼图”。 Hummingbird是首个用于特定领域人工智能(AI)工作负载的片上光网络(oNOC)处理器,采用先进封装技术,将光芯片和电芯片进行垂直堆叠,集成为一个系统级封装(S
[传感器]
曦智科技携全新光电计算产品亮相<font color='red'>Hot</font> <font color='red'>Chips</font>大会
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved