NVIDIA为广大开发者提供50余项全新升级版AI工具及培训材料

发布者:EEWorld资讯最新更新时间:2021-04-28 来源: EEWORLD关键字:NVIDIA 手机看文章 扫描二维码
随时随地手机看文章

NVIDIA开发者计划通过全新SDK及培训材料,将以更丰富的资源助力开发者更好地构建应用。


太平洋时间2021年4月19日—为帮助开发者巩固技能,NVIDIA于本周为数据科学家、研究人员、学生和各领域的开发者推出了50多项全新升级版工具及培训材料。


所提供的内容包括用于对话式AI和光线追踪的软件开发套件,以及来自NVIDIA深度学习学院(DLI)的实践课程等。


所有NVIDIA开发者计划成员均可获得上述工具及材料。NVIDIA开发者计划是一个由全球250多万名技术创新者组成的免费开放社区,他们致力于通过加速计算来推动各行业的变革。


通过学习打开成功之门


要想在竞争激烈的就业市场中取得优势,有一点很重要,那就是需要不断地学习新的高级软件开发技能。在DLI,您可以就AI、数据科学和加速计算领域的多个重要话题方向展开全面的学习。这些课程包含各类实践练习,分为自学和讲师指导两种形式。


五门课程的主题涵盖了深度学习、数据科学、自动驾驶和对话式AI等,其中均包含实践练习,以加速学员对材料的学习和掌握。DLI研讨会由经NVIDIA认证的讲师指导,每位学员均可使用配置齐全的云端GPU加速服务器。


目前提供的最新自学课程:


深度学习入门


加速端到端数据科学工作流程


将传感器与NVIDIA DRIVE集成


即将推出的讲师指导型线上研讨会:


加速数据工程流水线


构建对话式AI应用


这些讲师指导型研讨会将面向企业客户及普通公众开放。DLI最近为其备受青睐的讲师指导型课程推出了公共研讨会,让各类开发者、数据科学家、研究人员和学生都能更多地参与其中。


为进一步扩展培训的覆盖面,DLI将推出新书《学习深度学习》(Learning Deep Learning),针对深度学习理论和实践应用提供全面的指导。这本书由NVIDIA工程师Magnus Ekman所著,书中集中探讨了如何应用深度神经网络来解决复杂而具有挑战性的问题。现可通过亚马逊进行预购。


全新加速SDK以及升级版技术工具


SDK是决定应用性能的关键组件。深度学习学院提供数十种针对高性能计算、计算机视觉、数据科学、对话式AI、推荐系统和实时图形技术的升级版工具包,助力开发者应对任何挑战。升级版工具还将助力开发者加速应用开发。


目前提供的升级版工具包括:


NGC是一个针对AI和HPC软件的GPU优化中心,包含数百个SDK、AI、ML和HPC容器、预训练模型以及Helm图表,可大幅简化并加速端到端工作流程。预训练模型可帮助开发者针对各种用例(包括计算机视觉和语音)快速启动AI项目。


即将推出的全新SDK:


TAO(训练、适配、优化)是一个基于GUI的工作流程驱动框架,它可以简化并加速企业级AI应用和服务的创建。企业可使用迁移学习或联邦学习,对预训练模型进行微调,将特定领域模型的生成时间从数月缩短至几小时,从而无需运行大规模训练及深度AI专业知识。


目前提供的全新升级版SDK和框架包括:


Jarvis:这一全面加速的应用框架可用于构建多模态对话式AI服务。它包含在NVIDIA DGX系统上经数千小时预训练的顶尖模型,无需编码即可针对各领域对模型进行适配的迁移学习工具包,以及优化的实时端到端语音、视觉和语言流水线。


Maxine:这一GPU加速SDK具有最领先的AI功能,可供开发者构建虚拟协作和内容创建类的应用,例如视频会议和直播等。Maxine的AI SDK ——视频特效、音频特效和增强现实等均经过高度优化,并包含能够连接端到端流水线的模块化功能,从而通过PC上或数据中心内的GPU尽可能地实现最高性能。


Merlin:该应用框架目前处于公测阶段。它能够用于开发从数据预处理到模型训练和推理等深度学习推荐系统,且所有这些系统均可通过NVIDIA GPU加速。


DeepStream:这一AI串流分析工具包用于构建高性能、低延迟、复杂的视频分析应用和服务。


Triton Inference Server让团队能够在任何基于GPU或CPU的基础设施上,在本地存储或云平台中,基于任何框架,部署经过训练的AI模型。


TensorRT,用于高性能深度学习推理,包括深度学习推理优化器,以及能够为深度学习推理应用提供低延迟和高吞吐量的运行时。TensorRT 8使基于transformer的模型和新技术的速度提高了2倍,在使用高性能INT8精度的同时实现与FP32类似的精度。


RTX技术可助力游戏开发者提升游戏真实感:


DLSS深度学习神经网络可以帮助图像处理开发者提高帧率,为其项目生成美观清晰的图像。其在性能上还留有余量,可将光线追踪设置最大化,并增加输出分辨率。Unity已宣布Unity Engine 2021.2本身将支持DLSS。


RTX Direct Illumination(RTXDI)可以对配备数百万个动态灯光的场景进行实时渲染,而无需担心性能或资源限制。


RTX Global Illumination(RTXGI)运用光线追踪技术扩展多次反射间接照明的计算,而无需耗费烘焙时间、漏光或高昂的每帧成本。


Real-Time Denoisers(NRD)是一个与API无关的时空降噪库,主要用于处理low ray-per-pixel信号。

关键字:NVIDIA 引用地址:NVIDIA为广大开发者提供50余项全新升级版AI工具及培训材料

上一篇:Arm处理器诞生36周年,回顾一下Arm的起源史
下一篇:风河副总裁:欢迎迎接智能经济的到来

推荐阅读最新更新时间:2024-11-04 23:10

英伟达推出小型无人车人工智能电脑 将用于百度无人驾驶
  北京时间9月13日上午消息,美国芯片制造商英伟达周一展示了体积更小、效率更高的无人驾驶汽车人工智能电脑,并表示该产品将用于百度的地图和无人驾驶汽车技术。           英伟达在北京举行的GPU技术大会上发布了这台电脑。该公司表示,百度将把这款名为Drive PX 2的电脑作为其无人驾驶系统的车载电脑。   随着越来越多的汽车厂商制定了无人驾驶汽车开发计划,希望在未来10年甚至更短的时间内推出自己的无人驾驶汽车,英伟达也在努力降低该行业的进入门槛,通过强大的电脑为汽车厂商提供帮助。   该公司本月早些时候宣布与百度达成合作关系,共同开发全面的无人驾驶汽车架构,不仅包括云端技术,还涵盖了融合双方人工智能技术的
[汽车电子]
Bob Feldstein将离开AMD加入Nvidia
据外媒报道,昔日的AMD战略发展部副总裁Bob Feldstein将离开AMD加入其对手Nvidia旗下 。Feldstein曾经是下一代Xbox,PlayStation和Wii U选择使用AMD硬件的幕后推手。在加入AMD之前,Feldsstein也曾帮助前雇主ATI取得了Xbox 360的Xenos GPU,Wii Hollywood最初版GPU等订单。反观Nvidia,它的主要客户却只有PS3。 据《华尔街日报》报道,7月13号是Feldstein最后一天在AMD任职,他将从16号开始为Nvidia工作。当时,Nvidia虽然没有正面地肯定他的加入,但是他们也没有否认。 AMD在近两年来屡失高管人员。除了最近刚离职的
[半导体设计/制造]
Bob Feldstein将离开AMD加入<font color='red'>Nvidia</font>
AMD、英伟达业务推动台积电明年营收大幅增长
供应链消息人士称,除了来自苹果和联发科的订单,来自AMD和英伟达的HPC处理器订单将是台积电2022年收入增长的另一主要驱动力。 据《电子时报》报道援引上述人士称,尽管后疫情时代经济复苏仍存在不确定性,但AMD和英伟达都对其高性能计算GPU和CPU的销售前景充满信心,这促使他们将2022年的订单向供应链合作伙伴增加了至少30%,以确保客户有足够的出货量。 台积电将是其中最大的受益者。一方面,AMD要求台积电为其新产品增加更多的7/6/5nm制程产能,因为ABF载板在2021年影响了其出货量后,供应紧张状况将在2022年逐季缓解。 近两年来,AMD在服务器、笔记本电脑和台式机的CPU和GPU市场份额显著提升,游戏芯片出货量也大幅上升
[手机便携]
基于英伟达平台,麻省理工研发自动驾驶单一深度神经网络
从外媒获悉,麻省理工学院(MIT)的研究人员正在研发一种单一深度神经网络(DNN),该系统基于英伟达DRIVE AGX Pegasus平台,可以快速处理大量的激光雷达数据。 自动驾驶汽车的数据量有多大?通常情况下,50辆自动驾驶汽车组成的车队行驶6小时后,一辆测试车的传感器会产生多达1.6千万亿字节的数据,这些数据都需要被计算机实时分析并理解。目前,大多数自动驾驶解决方案都采用多个神经网络以及高精度地图,来帮助车辆确认自身位置。同时,与二维图像数据不同,激光雷达点在三维环境中分布非常稀疏,依靠激光雷达感知的自动驾驶系统,需要每秒处理超200万个点,这对于没有针对此类数据进行优化的现代计算机而言是相当大的阻碍。 相比之
[汽车电子]
基于<font color='red'>英伟达</font>平台,麻省理工研发自动驾驶单一深度神经网络
NVIDIA下一款显示架构名称为「Ampere」 最快明年3月揭晓
日前在台北GTC 2017活动受访时,NVIDIA执行长黄仁勋透露已经着手准备下一款显示卡架构设计,而相关消息则透露全新架构将以「Ampere (安培)」作为名称。 继先前分别以「Fermi」、「Kepler」、「Maxwell」、「Pascal」、「Volta」等历史著名物理学家命名的显示架构后,NVIDIA下一款显示架构或许将以「Ampere」命名,预期将使晶片制程进入10nm规格,相比Pascal架构采用的16nm、14nm制程,以及Volta架构采用的12nm制程,将能藉由更密集的电晶体数量推动更大运算效能,而整体耗电量则因制程缩减而更变得相对省电。 不过,预期NVIDIA正式公布Ampere显示架构时间,仍订于明
[半导体设计/制造]
人形机器人迎来新突破,NVIDIA发布Project GR00T基础模型
工信部在2023年底发布了《人形机器人创新发展指导意见》,为我国人形机器人的未来发展制定了明确的时间表和路线图。根据《指导意见》,到2025年,我国人形机器人领域将初步建立创新体系,并在关键技术上取得重要突破,包括“大脑、小脑、肢体”等核心技术的研发。届时,我国的人形机器人整机产品有望达到国际先进水平,并实现规模化生产。 人形机器人最大的难点在于学习/训练平台,目前尚未有专门针对人形机器人所开发的产品。日前NVIDIA在2024 GTC期间发布了最新的Project GR00T,将有助于推动人形机器人方面的开发。 GR00T是一个具有广泛应用潜力的基础模型,有望彻底改变仿人机器人在模拟环境和现实场景中的学习方式。通过NVI
[工业控制]
NVIDIA助力Siemens PLM Software“工业4.0创新实验室”
Quadro GPU、GRID、IRAY助力数字化企业,为“中国设计”提供关键能力 近日,NVIDIA宣布为Siemens PLM Software在北京建成的“工业4.0创新实验室”提供了支持。该实验室配备Siemens PLM Software全面的产品生命周期管理解决方案,结合第三方硬件,向中国制造企业展示“数字化企业”的全景图。实验室的工作站全部配备NVIDIA Quadro专业级图形解决方案。高性能GPU、NVIDIA GRID设计云、NVIDIA IRAY等技术带来的实时渲染、图形云端等领先科技,将帮助中国企业实现自我革新和价值突破。   NVIDIA Quadro GPU助力产品全生命周期管理,GRID虚拟化技术带来
[嵌入式]
分析:NVIDIA、CUDA与x86到底是何关系
著名市场调研机构John Peddie Research近日撰文,对Nvidia日前宣布的CUDA-x86编译器进行了分析和评论,并探讨了CUDA、x86技术的彼此关系,特别是Nvidia究竟为什么要这么做。   其实事情并没有现象得那么简单。Nvidia上周在GTC 2010图形技术大会上宣布的CUDA-x86编译器与其获取x86知识产权并没有任何关系。虽然这种说法在过去今年中从来没有停止过。事实上,这个所谓的CUDA-x86跨平台编译器只是用于在x86架构硬件上运行CUDA编写的应用程序。   乍一看,这似乎和Nvidia的长期策略相抵触。Nvidia一直在努力将应用程序的运行从x86 CPU转移到GPU上,
[单片机]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved