从 PC 和工作站到企业数据中心、公有云和 NVIDIA DGX Cloud,新推出的开发者套件在 NVIDIA AI 平台上引入了简化的模型优化与部署
洛杉矶 — SIGGRAPH — 太平洋时间 2023 年 8 月 8 日 — NVIDIA 今日发布 NVIDIA AI Workbench。这个统一、易于使用的工具套件使开发者能够在 PC 或工作站上快速创建、测试和自定义预训练的生成式 AI 模型,然后将这些模型扩展到几乎任何数据中心、公有云或 NVIDIA DGX™ Cloud。
AI Workbench 降低了启动企业 AI 项目的复杂性。通过一个在本地系统上运行的简化界面访问,开发者可以使用自定义数据对来自 Hugging Face、GitHub 和 NVIDIA NGC™ 等流行资源库的模型进行定制。然后,这些模型可以多个平台之间轻松共享。
NVIDIA 企业计算副总裁 Manuvir Das 表示:“全球各地的企业都在竞相寻找合适的基础设施并构建生成式 AI 模型和应用。NVIDIA AI Workbench 为跨组织团队创建基于 AI 的应用提供了一条简化的途径,而这些应用正日益成为现代商业的关键。”
AI 开发者的新时代
尽管目前已有数十万计的预训练模型可供使用,但要使用众多开源工具对其进行定制,需要在多个在线资源库中搜索适当的框架、工具和容器,并运用合适的技能为特定用例定制模型。
借助 NVIDIA AI Workbench,开发者只需点击几下就能自定义并运行生成式 AI。它允许开发者从开源资源库和 NVIDIA AI 平台中获取所有必要的企业级模型、框架、软件开发工具包和库,并将其整合到一个统一的开发者工具套件中。
戴尔科技、慧与、惠普、Lambda、联想、超微等领先的 AI 基础设施提供商皆正在采用 AI Workbench,以增强其最新一代多 GPU 桌面工作站、高端移动工作站和虚拟工作站的性能。
拥有基于 Windows 或 Linux 的NVIDIA RTX™ PC 或工作站的开发者也可以在本地 RTX 系统上启动、测试和微调企业级生成式 AI 项目,并可根据需求轻松访问数据中心和云计算资源。
全新 NVIDIA AI Enterprise 4.0 软件推进 AI 部署
为了进一步加快生成式 AI 的采用,NVIDIA 宣布推出最新版本的企业软件平台——NVIDIA AI Enterprise 4.0。它为企业提供采用生成式 AI 所需的工具,同时提供了可靠的生产部署所需的安全性和 API 稳定性。
在 NVIDIA AI Enterprise 中,有着全新提供支持的软件和工具,其有助于简化生成式 AI 的部署,包括以下几个:
● NVIDIA NeMo™:一个用于构建、自定义和部署大语言模型的云原生框架。通过 NeMo,NVIDIA AI Enterprise 可为大语言模型应用的创建和自定义提供端到端支持。
● NVIDIA Triton™ 管理服务:可帮助实现生产部署的自动化和优化,使企业能够在 Kubernetes 中自动部署多个 NVIDIA Triton 推理服务器 实例,并通过模型编排来高效运行可扩展的 AI。
● NVIDIA Base Command Manager Essentials 集群管理软件:帮助企业在数据中心、多云和混合云环境中最大限度地提高 AI 服务器的性能和利用率。
NVIDIA AI Enterprise 软件使用户能够在云端、数据中心和边缘构建并运行 NVIDIA AI 解决方案。这套软件已被证实可在主流 NVIDIA 认证系统™、NVIDIA DGX 系统、所有主流云平台以及最新发布的 NVIDIA RTX 工作站上运行。
领先的软件公司 ServiceNow 和 Snowflake,以及基础设施提供商戴尔科技(其提供戴尔生成式 AI 解决方案),最近宣布与 NVIDIA 合作,在其平台上提供新的生成式 AI 解决方案和服务。NVIDIA AI Enterprise 4.0 与 NVIDIA NeMo 的集成为客户构建生产就绪型生成式 AI 奠定了基础。
NVIDIA AI Enterprise 4.0 将在 AWS Marketplace、 Google Cloud、Microsoft Azure 等合作伙伴的应用市场上架,并通过 NVIDIA 的云合作伙伴 Oracle Cloud Infrastructure 提供。
此外,包括 Azure Machine Learning、ClearML、Domino Data Lab、Run:AI 和 Weights & Biases 在内的 MLOps 提供商也将与 NVIDIA AI 平台实现无缝集成,以简化生产级生成式 AI 模型的开发。
广泛的合作伙伴支持
“戴尔科技和 NVIDIA 全力致力于帮助企业构建专用的 AI 模型,把握生成式 AI 带来的巨大机遇。借助 NVIDIA AI Workbench,开发者可以充分利用戴尔完整的生成式 AI 解决方案组合,在个人电脑、工作站和数据中心基础设施上自定义模型。”
——戴尔科技集团商用客户产品副总裁 Meghana Patwardhan
“大多数企业缺乏应对 AI 软件和系统的高度复杂性所需的专业知识、预算和数据中心资源。我们期待通过 NVIDIA AI Workbench 在 HPE GreenLake 边缘到云平台上实现一键式训练和部署,从而简化生成式 AI 项目的创建。”
——慧与 AI 首席产品官 Evan Sparks
“作为工作站市场的领导者,惠普致力于为要求严苛的数据科学和 AI 模型提供所需的性能和效率,为此我们与 NVIDIA 的合作由来已久。惠普正在采用新一代高性能系统,搭载 NVIDIA RTX Ada架构 GPU 和 NVIDIA AI Workbench,为我们的企业客户带来生成式 AI 的强大功能,帮助他们在云和本地之间移动 AI 工作负载。”
——惠普高级计算解决方案高级副总裁 Jim Nottingham
“联想和 NVIDIA 正共同努力帮助客户克服部署的复杂性,更轻松地实施部署生成式 AI,以便他们为市场提供革命性的服务和产品。NVIDIA AI Workbench 和联想 AI 就绪产品组合使开发者能够充分利用其智能设备的强大功能,并在边缘到云基础设施中进行扩展。”
——联想工作站与客户端 AI 事业部副总裁兼总经理 Rob Herman
“在长期合作过程中,VMware 与 NVIDIA 通过提供专为 AI 工作负载而优化的端到端企业平台,帮助每一家企业解锁 AI 的力量。我们共同努力,使企业能够更轻松地获取和实现生成式 AI。通过 AI Workbench,NVIDIA 为开发者提供了一套强大的工具,帮助企业加速采用生成式AI。全新 NVIDIA AI Workbench 使开发团队能够将 AI 工作负载从桌面无缝迁移到生产环境中。”
——VMware AI Labs 副总裁 Chris Wolf
观看 NVIDIA 创始人兼首席执行官黄仁勋的 SIGGRAPH 主题演讲,了解关于 NVIDIA AI Workbench 和 NVIDIA AI Enterprise 4.0 的更多信息。
AI Workbench 抢先体验版即将发布。注册后即可在发布时收到通知。
上一篇:研华模块化电脑与登临GPU加速卡完成产品互认证,携手加速AI应用规模化落地
下一篇:NVIDIA 与 Hugging Face 将连接数百万开发者与生成式 AI 超级计算
推荐阅读最新更新时间:2024-11-07 19:09
- LT3088HST 线性稳压器用于添加软启动的典型应用
- 智能窗帘
- 使用 Cypress Semiconductor 的 S6AP413AABGN1C000 的参考设计
- EVAL-AD5424SDZ,使用 AD5424、8 位、高带宽乘法 DAC 和并行接口的评估板
- RT8298 6A、24V、600kHz 降压转换器的典型应用,带同步栅极驱动器,适用于 WDFN-14L 4x3 封装
- LT1108CS8-5 6.5V-20V 至 5V 降压转换器的典型应用电路
- SI2457FS18-EVB,带有 UART 接口的 SI2457 ISOmodem 芯片评估板
- 51小车自动循迹程序源码
- 使用 Microchip Technology 的 TC2576 的参考设计
- LT2940IMS 宽输入范围 10W PWM 热源的典型应用电路