对于标榜可发挥高达180TFLOPS的第二代TPU (Tensor Processing Unit),Google说明此项处理器依然是针对开放学习框架TensorFlow加速为主,因此无法像NVIDIA提出Tesla V100等GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架。
相比第一代TPU仅能针对逻辑推演作加速,Google此次宣布推出的第二代TPU不但大幅提升运算效能,更增加对应深度学习应用加速设计,配合越来越多人使用的TensorFlow学习框架,将使TPU应用领域变得更加多元,甚至直接挑战NVIDIA以GPU加速的深度学习应用模式。
不过,在Google I/O 2017期间进一步向Google询问,确认第二代TPU设计依然是以针对开放学习框架TensorFlow加速为主,本身并不像NVIDIA Tesla V100等藉由GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架,因此在实际布署应用弹性可能相对受限。 只是从TPU大幅去除非必要组件,仅针对深度学习、逻辑推演加速功能优化,预期仍将使NVIDIA面临不少竞争压力。
但从NVIDIA为使加速学习效率提升,在新款加速卡Tesla V100架构设计额外加上对应TensorFlow学习框架的Tensor核心,藉此让深度学习效率可进一步提升,显然也是呼应越来越多藉由TensorFlow学习框架产生的深度学习应用需求,同时更有向Google说明GPU加速仍有较广泛应用的叫阵意味。
而对于开发者需求部分,Google方面则认为无论是什么样的加速学习模式都有其优点,例如聚焦在TensorFlow学习框架的深度学习,或许第二代TPU能带来更好加速学习效率,但若是针对TensorFlow以外学习框架应用,NVIDIA的Tesla V100显然就有较高使用弹性,因此主要还是看本身设计内容挑选较合适的学习模式。 同时在越来越多的选择之下,对于开发者所能使用资源、带动市场发展动能都能带来好处。
上一篇:并购频发,全球半导体市场趋向集中
下一篇:澳洲科学家用纳米管在芯片上培育脑细胞
推荐阅读最新更新时间:2023-10-12 23:44
- 英飞凌2024财年第四季度营收和利润均有增长; 2025财年市场疲软,预期有所降低
- 光刻胶巨头 JSR 韩国 EUV 用 MOR 光刻胶生产基地开建,预计 2026 年投产
- Imagination DXS GPU 已获得ASIL-B官方认证
- arm召开2025二季度财报会,V9架构继续大获成功
- 新思科技携手ZAP亮相2024进博会:助力全球首创无屏蔽放疗手术机器人实现
- 铠侠将开发新型 CXL 接口存储器:功耗、位密度优于 DRAM、读取快于 NAND
- 全新纳米级3D晶体管面世
- 郭明錤剖析英特尔Lunar Lake失败原因:制程落后,更在于产品规划能力
- Silicon Labs:技术创新驱动稳健增长,物联网市场前景广阔