NVIDIA Hopper 首次亮相 MLPerf,在 AI 推理基准测试中一骑绝尘
在行业标准 AI 推理测试中,NVIDIA H100 GPU 创造多项世界纪录、A100 GPU 在主流性能方面展现领先优势、Jetson AGX Orin 在边缘计算方面处于领先地位。
在 MLPerf 行业标准 AI 基准测试中首次亮相的 NVIDIA H100 Tensor Core GPU在所有工作负载推理中均创造了世界纪录,其性能比上一代 GPU 高出 4.5 倍。
这些测试结果表明,对于那些需要在高级 AI 模型上获得最高性能的用户来说,Hopper 是最优选择。
此外,NVIDIA A100 Tensor Core GPU 和用于 AI 机器人的 NVIDIA Jetson AGX Orin模块在所有 MLPerf 测试中继续表现出整体领先的推理性能,包括图像和语音识别自然语言处理和推荐系统。
H100 (又名 Hopper)提高了本轮测试所有六个神经网络中的单加速器性能标杆。它在单个服务器和离线场景中展现出吞吐量和速度方面的领先优势。
NVIDIA H100 GPU 在数据中心类别的所有工作负载上都树立了新标杆
NVIDIA Hopper 架构的性能比 NVIDIA Ampere 架构高出 4.5 倍;Ampere 架构 GPU 在 MLPerf 结果中继续保持全方位领先地位。
Hopper 在流行的用于自然语言处理的 BERT 模型上表现出色部分归功于其 Transformer Engine。BERT 是 MLPerf AI 模型中规模最大、对性能要求最高的的模型之一。
这些推理基准测试标志着 H100 GPU 的首次公开亮相,它将于今年晚些时候上市。H100 GPU 还将参加未来的 MLPerf 训练基准测试。
A100 GPU 展现领先优势
在最新测试中,NVIDIA A100 GPU 继续在主流 AI 推理性能方面展现出全方位领先,目前主要的云服务商和系统制造商均提供 A100 GPU。
在数据中心和边缘计算类别与场景中,A100 GPU赢得的测试项超过了任何其他提交的结果。A100还在6月的MLPerf训练基准测试中取得了全方位的领先,展现了其在整个AI工作流中的能力。
A100 还在6月的 MLPerf 训练基准测试中取得了全方位的领先,展现了其在整个 AI 工作流程中的能力。
自 2020 年 7 月在 MLPerf 上首次亮相以来由于 NVIDIA AI 软件的不断改进,A100 GPU 的性能已经提升了6倍。
NVIDIA AI 是唯一能够在数据中心和边缘计算中运行所有 MLPerf 推理工作负载和场景的平台。
用户需要通用性能
NVIDIA GPU 在所有主要 AI 模型上的领先性能,使用户成为真正的赢家。用户在实际应用中通常会采用许多不同类型的神经网络。
例如,一个AI 应用可能需要理解用户的语音请求、对图像进行分类、提出建议,然后以人声作为语音信息提供回应。每个步骤都需要用到不同类型的 AI 模型。
MLPerf 基准测试涵盖了所有这些和其他流行的 AI 工作负载与场景,比如计算机视觉、自然语言处理、推荐系统、语音识别等。这些测试确保用户将获得可靠且部署灵活的性能。
MLPerf 凭借其透明性和客观性使用户能够做出明智的购买决定。该基准测试得到了包括亚马逊、Arm、百度、谷歌、哈佛大学、英特尔、Meta、微软、斯坦福大学和多伦多大学在内的广泛支持。
Orin 在边缘计算领域保持领先
在边缘计算方面,NVIDIA Orin 运行了所有 MLPerf 基准测试,是所有低功耗系统级芯片中赢得测试最多的芯片。并且,与 4 月在 MLPerf 上的首次亮相相比,其能效提高了50%。
在上一轮基准测试中,Orin 的运行速度和平均能效分别比上一代 Jetson AGX Xavier 模块高出 5 倍和 2 倍。
在能效方面,Orin 边缘 AI 推理性能提升多达 50%。
Orin 将 NVIDIA Ampere架构 GPU 和强大的 Arm CPU 内核集成到一块芯片中。目前,Orin 现已被用在 NVIDIA Jetson AGX Orin 开发者套件以及机器人和自主系统生产模块,并支持完整的 NVIDIA AI 软件堆栈,,包括自动驾驶汽车平台(NVIDIA Hyperion)、医疗设备平台(Clara Holoscan)和机器人平台(Isaac)。
广泛的 NVIDIA AI 生态系统
MLPerf 结果显示,NVIDIA AI 得到了业界最广泛的机器学习生态系统的支持。
在这一轮基准测试中,有超过 70 项提交结果在 NVIDIA 平台上运行。例如,Microsoft Azure 提交了在其云服务上运行 NVIDIA AI 的结果。
此外,10 家系统制造商的 19 个NVIDIA 认证系统参加了本轮基准测试,包括华硕、戴尔科技、富士通、技嘉、慧与、联想、和超微等。
它们的结果表明,无论是在云端还是在自己数据中心运行的服务器中,用户都可以借助 NVIDIA AI 获得出色的性能。
NVIDIA 的合作伙伴参与 MLPerf 是因为他们知道这是一个为客户评估 AI 平台和厂商的重要工具。最新一轮结果表明,他们目前向用户提供的性能将随着 NVIDIA 平台的发展而增长。
用于这些测试的所有软件都可以从 MLPerf 库中获得,因此任何人都可以获得这些世界级成果。NGC( NVIDIA 的 GPU 加速软件目录)上正在源源不断地增加以容器化形式提供的优化。在这里,你还会发现 NVIDIA TensorRT,本轮测试的每此提交都使用它来优化 AI 推断。
上一篇:科学家开发可穿戴辅助机器人MRBA 可用来检测和预防跌倒
下一篇:毫米软体机器人会奔跑会游泳,堪比机器人领域的“小猎豹”!
推荐阅读最新更新时间:2024-11-12 12:27
- 使用 ROHM Semiconductor 的 BD45261 的参考设计
- STEP400:用于创意编码器的 4 轴步进电机驱动器(原理图、PCB、源码等)
- LT3763EFE 20A、脉宽调制、单 LED 驱动器的典型应用电路
- EVK-TIT9036A、EVK-THEMIS-ATLAS-基于 CHT-THEMIS 和 CHT-ATLAS 栅极和电源驱动器的评估板
- 用于 24V 汽车应用的 LTC4367HDD 过压电源保护控制器的典型应用
- AD5342 并行接口、双电压输出、12 位 DAC 的典型应用
- RTL8188_USB WIFI网卡
- 使用 LTC2367CMS-18、18 位、500ksps SAR ADC 的典型应用
- LTC1643A 的典型应用电路——PCI 总线热插拔控制器
- AD8604DRZ-REEL 作为 DAC 输出缓冲器驱动重负载的典型应用