FPGA还是GPU?你的AI主芯片将如何选择

最新更新时间:2023-02-01来源: EEWORLD关键字:FPGA  GPU 手机看文章 扫描二维码
随时随地手机看文章

尽管模仿人类思想和想法的软件算法是人工智能的基础,但硬件也是一个重要组成部分,这就是现场可编程门阵列 (FPGA) 和图形处理单元(GPU)发挥重要作用的地方。


人工智能 (AI) 是指能够以与人类相同的方式做出决策的非人类机器智能。 这包括沉思、适应能力、意图能力和判断力。机器视觉、机器人自动化、认知计算、机器学习和计算机视觉都是人工智能市场的应用。人工智能正在汽车、消费电子、媒体和娱乐以及半导体等多个行业领域迅速获得关注,预示着下一次伟大的技术变革。


半导体预计将在未来几年持续增长。 随着全球对机器学习设备的需求不断增长,许多属于 EDA(电子设计自动化)、显卡、游戏、多媒体行业的主要市场参与者正在投资提供创新的高速计算处理器。 虽然人工智能主要基于模仿人类思想和想法的软件算法,但硬件也是一个重要组成部分。 现场可编程门阵列 (FPGA) 和图形处理单元 (GPU) 是大多数 AI 操作的两种主要硬件解决方案。 据先行研究组预测,2021年全球人工智能硬件市场规模为104.1亿美元,预计到2030年将达到892.2亿美元,2022-2030年复合年增长率为26.96%。


FPGA 和 GPU 概述


FPGA 概述


具有可重新编程逻辑门的硬件电路称为现场可编程门阵列 (FPGA)。 当芯片在现场使用时,用户可以通过覆盖配置来设计独特的电路。 这与不能重新编程的标准芯片形成对比。 使用 FPGA 芯片,您可以构建从简单的逻辑门到多核芯片组的任何东西。 FPGA 的使用非常流行,其中内部电路是必不可少的,并且预计会发生变化。 FPGA 应用涵盖 ASIC 原型设计、汽车、多媒体、消费电子产品以及更多领域。根据应用要求,可选择低端、中端或高端 FPGA 配置。 Lattice 半导体的 ECP3 和 ECP5 系列、Xilinx 的 Artix-7/Kintex-7 系列和 Intel 的 Stratix 系列是一些流行的低功耗和低设计密度的 FPGA 设计。


逻辑块是使用具有有限输入的查找表 (LUT) 构建的,并使用基本存储器(例如 SRAM 或闪存)来构建以存储布尔函数。 每个 LUT 都链接到一个多路复用器和一个触发器寄存器以支持时序电路。 同样,许多 LUT 可用于创建复杂的功能。


FPGA 更适合嵌入式应用,并且比 CPU 和 GPU 使用的功率更低。 这些电路不受 GPU 等设计的限制,可用于定制数据类型。 此外,FPGA 的可编程性使得修改它们变得更加简单。


使用 FPGA 的优势


高效节能


借助 FPGA,设计人员可以精确调整硬件以满足应用程序的要求。 凭借其低功耗能力,可以最大限度地降低 AI 和 ML 应用程序的整体功耗。 这可以延长设备的使用寿命并降低培训的总体成本。


易于灵活


FPGA 为处理 AI/ML 应用程序提供了可编程性的灵活性。 可以根据需要对一个单独的块或整个块进行编程。


减少延迟


FPGA 擅长处理短语并减少延迟。 减少延迟是指计算系统以最小延迟响应的能力。 这在视频监控、视频预处理和后处理以及文本识别等实时数据处理应用中至关重要,在这些应用中,每一微秒都至关重要。 因为它们在没有操作系统的裸机环境中运行,所以 FPGA 和 ASIC 比 GPU 更快。


并行处理


FPGA 的操作和能源效率由于它们能够同时执行多项任务甚至指定设备的特定部分用于特定功能而得到显着提高。 少量分布式内存包含在 FPGA 特殊架构的结构中,使它们更接近处理器。


GPU 概述


图形处理单元 (GPU) 的最初目的是创建计算机图形和虚拟现实环境,这些环境依赖于复杂的计算和浮点功能来渲染几何对象。 没有它们,现代人工智能基础设施将不完整,并且非常适合深度学习过程。


人工智能需求大量数据可供研究和学习以取得成功。 要运行人工智能算法并移动大量数据,需要大量的计算能力。 GPU 可以执行这些任务,因为它们的创建是为了快速处理生成图形和视频所需的大量数据。 它们在机器学习和人工智能应用中的广泛使用部分归功于它们的高计算能力。


GPU 可以同时处理多项计算。 因此,可以分布式训练程序,从而大大加快机器学习活动。 使用 GPU,您可以添加多个资源需求较低的内核,而不会影响性能或功率。 市场上有各种类型的 GPU,通常分为以下几类,例如数据中心 GPU、消费级 GPU 和企业级 GPU。


使用 GPU 的优势


内存带宽


GPU 具有良好的内存带宽,因此在深度学习应用程序中它们往往可以快速执行计算。 在大型数据集上训练模型时,GPU 消耗的内存更少。 凭借高达 750GB 的内存带宽,它们可以真正加速 AI 算法的快速处理。


多核


通常,GPU 由许多可以组合在一起的处理器集群组成。 这使得可以极大地提高系统的处理能力,特别是对于具有并行数据输入、卷积神经网络 (CNN) 和 ML 算法训练的 AI 应用程序。


灵活性


由于 GPU 的并行能力,您可以将 GPU 分组到集群中并在这些集群之间分配作业。 另一种选择是使用具有专用集群的单个 GPU 来训练特定算法。 具有高数据吞吐量的 GPU 可以并行地对许多数据点执行相同的操作,从而使它们能够以无与伦比的速度处理大量数据。


数据集大小


对于模型训练,AI 算法需要大量数据集,这会导致内存密集型计算。 GPU 是高效处理具有许多大于 100GB 的数据点的数据集的最佳选择之一。 自并行处理开始以来,它们提供了有效处理基本相同或非结构化数据所需的原始计算能力。


运行 AI 应用程序的两个主要硬件选择是 FPGA 和 GPU。 尽管 GPU 可以处理 AI 和深度学习所需的海量数据,但它们在能效、热问题、耐用性以及使用新 AI 算法更新应用程序的能力方面存在局限性。 FPGA 为神经网络和 ML 应用程序提供了显着优势。 这些包括易于 AI 算法更新、可用性、耐用性和能源效率。


此外,在为 FPGA 创建软件方面取得了重大进展,这使得编译和编程变得更加简单。 为了让您的 AI 应用程序取得成功,您必须调查您的硬件可能性。 正如所说,在确定行动方案之前,请仔细权衡您的选择。

关键字:FPGA  GPU 编辑:冀凯 引用地址:FPGA还是GPU?你的AI主芯片将如何选择

上一篇:莱迪思FPGA助力屡获殊荣的超级高铁及电机设计
下一篇:莱迪思在Automotive 2023上展示多款FPGA车载解决方案

推荐阅读

NVIDIA携手谷歌云提供强大的新生成式AI推理平台,基于全新L4 GPU和Vertex AI构建
NVIDIA携手谷歌云提供强大的新生成式AI推理平台,基于全新L4 GPU和Vertex AI构建NVIDIA生成式AI推理平台将集成至谷歌云Vertex AI中;谷歌云成为首家提供NVIDIA L4 GPU实例的云服务商加利福尼亚州圣克拉拉 – GTC – 太平洋时间2023年3月21日 – NVIDIA今日宣布正与谷歌云合作,以帮助企业加速创建数量急剧增加的生成式AI应用。谷歌云宣布从即日起提供 G2 虚拟机的非公开预览,成为首家提供NVIDIA L4 Tensor Core GPU的云服务商。 此外,L4 GPU将在Vertex AI上提供优化支持,该平台现在支持构建、调整和部署大型生成式AI模型。开发人员可以访问最先进的技术
发表于 2023-03-22
NVIDIA携手谷歌云提供强大的新生成式AI推理平台,基于全新L4 <font color='red'>GPU</font>和Vertex AI构建
富昌电子为莱迪思新FPGA平台Lattice Avant™提供工程支持
富昌电子为莱迪思新FPGA平台Lattice Avant™提供工程支持中国上海 – 全球知名的电子元器件分销商富昌电子荣获莱迪思半导体授予的 2022 年度最佳合作伙伴奖,并且很高兴将其专业工程支持扩展到涵盖莱迪思半导体的全新中端现场可编程门阵列 (FPGA) 平台 Lattice Avant™。Lattice Avant™ 为通信、计算、工业和汽车市场等客户应用提供出色的能效、先进的连接和优化的计算功能。与竞品相比,Lattice Avant™ 帮助客户在其设计中获得性能优势,使功耗最多降低 2.5 倍,吞吐量提高 2 倍(25 Gbps SERDES),封装尺寸最多缩小 6 倍,强化了对 PCIe Gen 4 的支持,并提供对
发表于 2023-03-20
自动驾驶主流芯片:GPUFPGA、ASIC
当前主流的AI芯片主要分为三类,GPU、FPGA、ASIC。GPU、FPGA均是前期较为成熟的芯片架构,属于通用型芯片。ASIC属于为AI特定场景定制的芯片。行业内已经确认CPU不适用于AI计算,但是在AI应用领域也是必不可少。GPU方案GPU与CPU的架构对比CPU遵循的是冯·诺依曼架构,其核心是存储程序/数据、串行顺序执行。因此CPU的架构中需要大量的空间去放置存储单元(Cache)和控制单元(Control),相比之下计算单元(ALU)只占据了很小的一部分,所以CPU在进行大规模并行计 算方面受到限制,相对而言更擅长于处理逻辑控制。 GPU(GraphicsProcessing Unit),即图形处理器,是一种由大量运算单元
发表于 2023-03-17
自动驾驶主流芯片:<font color='red'>GPU</font>、<font color='red'>FPGA</font>、ASIC
莱迪思即将举办网络研讨会,讨论最新的Avant平台——再创超低功耗新境界
莱迪思即将举办网络研讨会,讨论最新的Avant平台——再创超低功耗新境界中国上海——2023年3月15日——莱迪思半导体公司,低功耗可编程器件的领先供应商,今日宣布将举办网络研讨会探讨Avant™平台,这是一款全新的FPGA平台,旨在将莱迪思领先的低功耗架构、小尺寸和高性能拓展到中端FPGA产品。在网络研讨会期间,莱迪思的技术专家将介绍莱迪思Avant平台和首款基于Avant的FPGA系列产品——莱迪思Avant-E™,帮助客户解锁全新的FPGA创新设计。• 举办方:莱迪思半导体公司• 内容:全新莱迪思Avant平台——再创超低功耗新境界• 时间:北京时间 3月28日(周二)下午2:00• 地点:莱迪思网络研讨会(需要预先注册)
发表于 2023-03-15
英特尔推出Agilex 7 FPGA,搭载全新收发器打造业界领先的数据传输速度
英特尔推出Agilex 7 FPGA,搭载全新收发器打造业界领先的数据传输速度英特尔Agilex 7 FPGA F-Tile提高了灵活性、增加了带宽并实现了业界领先的数据传输速度近日,英特尔发布了英特尔Agilex® 7 FPGA F-Tile,并配备市场领先的现场可编程门阵列(FPGA)收发器1。在当今以数据为中心的世界,该产品将帮助客户在带宽密集的领域应对挑战,包括数据中心和高速网络。英特尔Agilex 7 FPGA F-Tile为嵌入式、网络和云计算客户而设计,是一个灵活的硬件解决方案,具有业界领先的收发器性能,提供高达116 Gbps和强化的400 GbE知识产权(IP)。英特尔公司副总裁兼可编程解决方案事业部总经理Shan
发表于 2023-03-08
消息称英伟达正开发新款 GeForce RTX 3060 显卡,基于 GA104 GPU+GDDR6X 显存
TechPowerUP GPU 数据库维护者 @T4C Fantasy 发现英伟达正在开发一款新的 RTX 3060 显卡,这次使用的是新 GPU (GA104)+GDDR6X 显存。英伟达已经推出了三种 RTX 3060,虽然有可能会推出新版本但也存在后续被砍的可能。当然,考虑到 RTX 30 系列的库存问题,我们认为 RTX 40 系列的中端卡可能不会那么快上市,所以大家按照自己需求来选购即可。如果算上这款新型号,NVIDIA 现在将拥有四款 RTX 3060 型号:GeForce RTX 3060 12GB GDDR6 – GA106-300GeForce RTX 3060 12GB GDDR6(LHR)– GA106-302
发表于 2023-03-08
消息称英伟达正开发新款 GeForce RTX 3060 显卡,基于 GA104 <font color='red'>GPU</font>+GDDR6X 显存
小广播
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2023 EEWORLD.com.cn, Inc. All rights reserved