第二代TPU带来更大运算效能, 但应用领域仍有局限

最新更新时间:2017-05-21来源: 互联网关键字:TPU 手机看文章 扫描二维码
随时随地手机看文章

对于标榜可发挥高达180TFLOPS的第二代TPU (Tensor Processing Unit),Google说明此项处理器依然是针对开放学习框架TensorFlow加速为主,因此无法像NVIDIA提出Tesla V100等GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架。

相比第一代TPU仅能针对逻辑推演作加速,Google此次宣布推出的第二代TPU不但大幅提升运算效能,更增加对应深度学习应用加速设计,配合越来越多人使用的TensorFlow学习框架,将使TPU应用领域变得更加多元,甚至直接挑战NVIDIA以GPU加速的深度学习应用模式。

不过,在Google I/O 2017期间进一步向Google询问,确认第二代TPU设计依然是以针对开放学习框架TensorFlow加速为主,本身并不像NVIDIA Tesla V100等藉由GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架,因此在实际布署应用弹性可能相对受限。 只是从TPU大幅去除非必要组件,仅针对深度学习、逻辑推演加速功能优化,预期仍将使NVIDIA面临不少竞争压力。

但从NVIDIA为使加速学习效率提升,在新款加速卡Tesla V100架构设计额外加上对应TensorFlow学习框架的Tensor核心,藉此让深度学习效率可进一步提升,显然也是呼应越来越多藉由TensorFlow学习框架产生的深度学习应用需求,同时更有向Google说明GPU加速仍有较广泛应用的叫阵意味。

而对于开发者需求部分,Google方面则认为无论是什么样的加速学习模式都有其优点,例如聚焦在TensorFlow学习框架的深度学习,或许第二代TPU能带来更好加速学习效率,但若是针对TensorFlow以外学习框架应用,NVIDIA的Tesla V100显然就有较高使用弹性,因此主要还是看本身设计内容挑选较合适的学习模式。 同时在越来越多的选择之下,对于开发者所能使用资源、带动市场发展动能都能带来好处。

关键字:TPU 编辑:王磊 引用地址:第二代TPU带来更大运算效能, 但应用领域仍有局限

上一篇:并购频发,全球半导体市场趋向集中
下一篇:澳洲科学家用纳米管在芯片上培育脑细胞

推荐阅读最新更新时间:2023-10-12 23:44

Google 公布 TPU 细节后,AI 界怎么看?
我们对 Google 的 TPU 并不陌生,正是它支撑了 AlphaGo 强大快速的运算力,但 Google 一直未曾披露细节,使 TPU 一直有神秘感。 美国当地时间 4 月 5 日,Google 终于打破沉寂,发表官方部落格,详细介绍 TPU 各方面。 相关论文更配以彩色 TPU 模块框图、TPU 芯片配置图、TPU 印制电路等,可谓图文并茂,称其为「设计教程」也不为过。 不出意料,这之后会涌现一大批仿效者。 论文中还给了 TPU 与其他芯片的效能对比图,称「TPU 处理速度比目前 GPU 和 CPU 要快 15 到 30 倍」,有人赞叹 TPU 的惊人效能,但也有人对此种「比较」表示质疑,因其拿来的比较对象并非市场效能最好的
[半导体设计/制造]
人工智能风口下的TPU/NPU/CPU/GPU
  人工智能将推动新一轮计算革命,深度学习需要海量数据并行运算,传统计算架构无法支撑深度学习的大规模并行计算需求。因此,深度学习需要更适应此类算法的新的底层硬件来加速计算过程。   芯片也为响应人工智能和深度学习的需要,在速度和低能耗方面被提出了更高的要求,目前使用的 GPU、FPGA 均非人工智能定制芯片,天然存在局限性,除具有最明显的优势GPU外,也有不少典型人工智能专用芯片出现。   一、谷歌——TPU(Tensor Processing Unit)即谷歌的张量处理器   TPU是一款为机器学习而定制的芯片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力)。大致上,相对于现在的处理器有7年的领先优势
[嵌入式]
人工智能风口下的<font color='red'>TPU</font>/NPU/CPU/GPU
谷歌首次透露TPU细节:处理速度达GPU/CPU的15-30倍
在2016年5月的I/O开发者大会上,谷歌首次向外透露了其机器学习专用芯片Tensor处理单元(TPU)。之后,谷歌除了公布它们是围绕公司自身进行优化的TensorFlow机器学习框架之外,就再未透露更多的细节。今日,谷歌的硬件工程师Norm Jouppi首次向外分享了更多关于该项目的细节和测试结果。 如果你是一个芯片设计师,你可以在谷歌公布的研究报告里找到很多关于这一TPU如何运作的细节。 在此次测试中,谷歌基于自己的基准测试对自研芯片进行了测试。测试结果表明,TPU在执行谷歌常规机器学习工作负载方面,比一个标准的GPU/CPU组合(一般是Intel Haswell处理器和Nvidia K80 GPU组合的情况下)平均要快15-
[半导体设计/制造]
初创企业挖走Google TPU团队大半关键成员
鉴于AI主要是对数据进行大规模的处理,所以处理速度对于AI来说就显得非常重要。过去几年AI(尤其是机器学习)之随意能够取得突破,主要原因正是计算能力取得了长足发展。但对于太多亟待AI来帮助处理的问题来说,这种能力的突破还不够。所以,当Google自家使用的AI专用处理器TPU(Tensor Processing Units)被披露出来时,大家才会如此的震惊:在AI事务的处理速度方面,比流行的GPU/CPU组合要快15到30倍,而且计算能效高30到80倍,这已经是极大的突破了。但遗憾的是,Google似乎并不打算分享给其他人。 不过这个遗憾也许很快就会被弥补,据CNBC透露,一家名为Groq的新成立的秘密初创企业已经挖来了Googl
[半导体设计/制造]
Google投入自家AI芯片 期望发挥带头角色
  日前Google针对资料中心市场推出自家晶片Tensor Processing Unit (TPU),专门应付处理大量数据需求。评论指出,Google之所以推出该技术,主要出发点在于追求效能、降低耗能与带领其他业者一同加入打造TPU的行列。   据Network World报导,过去由IBM大型主机与升阳(Sun)伺服器处理的资料中心工作量自从受到诸如Google等云端业者带动后,更让英特尔(Intel)的PC硬体将其普及化,不过,日前Google公布自家TPU效能与架构详细研究报告后,上述情况恐将从此改变。   首先,TPU并非类似英特尔中央处理器(CPU)或NVIDIA绘图处理器(GPU)的晶片,而是属于机器学习的ASIC
[嵌入式]
微软AI芯片Brainwave开放云端试用版 比TPU快5倍
智东西5月8日消息,昨天,微软在Build大会期间宣布,开发者现在可以接入微软Azure云,试用由Project Brainwave芯片计算平台提供的AI服务。同时还发布了可部署于边缘设备平台的Project Brainwave内测版。Project Brainwave计算平台是微软基于英特尔FPGA芯片打造的低延迟深度学习计算平台。 微软表示,与最流行的行业基准相比,Project Brainwave可以将实时AI计算的延迟时间降到最小,并且成本控制在可接受的范围。 (微软工程师道格·伯格举着Project Brainwave芯片) 一、Project Brainwave是什么? Project Brainwave项
[嵌入式]
微软AI芯片Brainwave开放云端试用版 比<font color='red'>TPU</font>快5倍
小广播
最新半导体设计/制造文章
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 市场动态 半导体生产 材料技术 封装测试 工艺设备 光伏产业 平板显示 EDA与IP 电子制造 视频教程

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved