机器学习如何改变未来十年软硬件

发布者:WhisperingLight最新更新时间:2017-08-30 来源: 电子产品世界关键字:机器学习  芯片 手机看文章 扫描二维码
随时随地手机看文章

  最近,Google Brain员工,TensorFlow产品经理Zak Stone在硅谷创业者社群South Park Commons上做了个讲座,谈到了TensorFlow、XLA、Cloud TPU、TFX、TensorFlow Lite等各种新工具、新潮流如何塑造着机器学习的未来。同时,他还暗示了一些还未向公众披露的exciting的事儿。下面就随网络通信小编一起来了解一下相关内容吧。

  讲座的题目叫“Tensor Flow, Cloud TPUs, and ML progress”,以下是整个讲座的概要,量子位编译整理自South Park Commons官方博客。

  作为一个平台来说,TensorFlow算是一场豪赌:它兼顾了快速,灵活,还可用于生产。实验和执行之间的转换要足够快,才能保证工程生产力,静态图像计算通过Python等高级灵活的语言来表示,同时图编译允许对特定目标进行准确度优化。

  

  作为一个开源项目,TensorFlow极为成功,它从2015年11月发布至今在Github上已经获得了超过20,000个commit。Github版的TensorFlow每周与Google内部镜像文件之间至少会进行一次双向同步,同时TensorFlow也收获了来自Intel,Microsoft,IBM,Rstudio,Minds.ai以及其他公司研发团队的大大小小的贡献。

  为了更好地触及用户,能够在移动端上提高运行TensorFlow模型效率的TensorFlow Lite将会在今年晚些时候内嵌到设备中,而像是XLA这样的项目更具野心:XLA使用深度学习来支持线性代数元的先时和实时编译,从而为任意的目标后端系统生成加速过的代码。XLA的目标是在递阶优化上实现重大突破,不仅是在GPU架构上,而是要在任意能够平行放置线性代数元的架构上实现突破。  

  谷歌内部,在CEO Sundar Pichai要成为“AI-first”公司的号召下,TensorFlow被应用到非常多的项目当中。

  而加速研发基于机器学习软件的趋势不仅在Google身上发生,亚马逊,苹果,百度,Facebook,微软,Salesforce,Uber,Lyft等几乎所有的主流科技企业,都雇佣了专业的研发团队来推动机器学习的工业化。而在这些公司中,深度学习的开发平台也是五花八门,其中包括来自Facebook的PyTorch和Caffe2,来自Microsoft的CNTK,来自Apple的Core ML以及来自Amazon的MXNet等。

  机器学习的崛起,意味着原来的clean abstraction和模块化设计正在被高维浮点张量和高效矩阵乘法所取代。

  按这种趋势发展下去,软件工程行业将彻底改变。

  Google软件工程师D. Sculley曾写过一篇题为“Machine Learning: The High-Interest Credit Card of Technical Debt”的文章,他在其中列举出了机器学习系统促进低劣软件设计的种种可能,甚至会使这些低劣的设计成为必须。他提到,“这些系统的基本代码跟正常代码拥有相同的复杂度,但在系统层面上拥有更大的复杂度,从而可能引发潜在的风险。”

  机器学习系统通过将所有系统输入紧密耦合,模糊了模型边界和抽象:理想的行为不变性不是来自软件逻辑,而是来自于驱动它们的特定外部数据。尽管存在通过静态分析和图连接来辨别代码可靠性的工具,但总体上,这些工具并没有办法用来分析数据的相关性。

  D Sculley等人在文章中讨论了几种系统设计中的劣势,很能与相关从业者产生共鸣:

  1. Glue Code(粘滞的代码)系统设计样式,“在这其中需要写大量的支持代码负责把数据传入、传出各种用途的安装包”;

  2. Pipeline jungles(乱七八糟的流水线),它会随时间有机地演变,数据准备系统“可能会变成由scape,join和sampling步骤组成的一团乱麻,通常还伴随着中间文件的输出”;

  3. Configuration debt(庞大的编译代价),将会随着系统和生产线的研发而逐渐累积,集合了“各种编译选项,包括使用的特征有哪些,怎样筛选数据,特定学习算法的设置(范围很宽),潜在的预处理或者后处理,验证方法等等。”

  即使在更小、更轻量化的项目中,工程师还会被以下这些问题困扰:

  1. 在实验中模型架构和权重的版本——尤其是当模型从不同体系借来了部分与训练模型,或者从其他模型借来了权重的时候。

  2. 数据来源和特征的版本;

  3. 在实验环境和实际生产环境之间的迁移(domain shift);

  4. 监测生产中推断的质量。

  解决这些问题的一个可能方案是TFX,它是一个Google内部研发的平台,用来在生产中分布和供应机器学习模型:

  创造和管理一个可用于可靠地生产和部署机器学习模型的平台,需要在很多部件之间进行细致编排——这些部件包括基于训练数据生成模型的学习器、用于分析和验证数据和模型的模块、以及最终在生产工程中用于部署模型的基础架构。当数据随着时间变化且模型在连续更新时,平台的管理就变得非常难。

  不幸的是,这些编排通常是在通过glue code和特定的脚本文件来有针对性的一一处理,导致了复制成本大、系统脆弱同时伴随着大量的技术隐患。

  TFX标准化了这些过程和部件,并把它们整合到单个平台上,从而简化了平台编译的过程,在确保平台可靠性、减少服务崩溃的基础上,将制作的时间从数月减少到了数周。

 

  摩尔定律放缓,使得我们得以重新进入“架构的黄金年代”,见证各式各样芯片和指令集的飞速发展。

  诸如英特尔旗下的Nervana、英伟达、Cerebras和Google等公司全都开始研发能够加速机器学习中线性代数运算的下一代硬件架构。且在默认情况下,每种架构都需要独特的、像cuDNN那样的底层、手动优化基元库。(cuDNN全称是CUDA Deep Neural Network library,是NVIDIA专门针对深度神经网络设计的一套GPU计算加速库。)

  想打破这个趋势,需要同行们在XLA等更普适的编译器框架上下更多功夫。

  Google的TPU(Tensor Processing Units)目前最有可能打破GPU的统治。每个Cloud TPU能提供高达每秒180万亿次的浮点运算,64GB的超高带宽存储空间以及可串联的特性。跟之前超级计算机的架构不同,TPU是从零开始设计,专门针对机器学习中常见的线性代数运算。

  TPU是与TensorFlow集成的,Google提供收费云端服务(Cloud TPU),同时通过TensorFlow Research Cloud(TFRC)项目,对想要提前使用TPU的机器学习专家进行补贴,提供1000个Cloud TPU,希望他们能通过论文和开源软件来跟世界分享其研究成果。

  

 

  小结

  像TensorFlow这样的图计算和深度学习库是未来计算行业发展背后的主要驱动力,这推动我们去重新审视系统架构,从硬件到编译器再到更高级的程序语言和设计规范。

  于是,繁重的工作摆在了软件架构师,工程师、研究人员等从业者面前,但同时这过程也很令人兴奋。就像Zak在演讲中所总结的一样:

  我读研究生的时候,这些惊艳的应用大都还不可能实现——当人们对机器学习技术习以为常,然后开始做一些我们现在预见不到的事情,会是什么样呢?第一批TensorFlow原生的产品会是什么样?”

    以上是关于网络通信中-机器学习如何改变未来十年软硬件的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

关键字:机器学习  芯片 引用地址:机器学习如何改变未来十年软硬件

上一篇:中国电信将在五城市测试5G信号
下一篇:台湾仅剩HTC和华硕两家手机品牌 且均陷入“绝境”

推荐阅读最新更新时间:2024-05-07 17:36

芯片厂商角逐多核处理器双方再演“拉力赛”
在AMD5款六核皓龙新处理器推出不久之后,有消息称,英特尔有望在下个月开始针对服务器、台式机和笔记本电脑推出多款高性能Nehalem处理器。多核处理器市场的硝烟,已重新燃起。 多核之战一触即发 据悉,AMD新增的5款处理器中3款六核皓龙HE处理器,可以被应用于搭配4、6或8个处理器的服务器上。此外,带有HE后缀表示该六核处理器为低功耗处理器,可以更为紧凑地排列于服务器之内,从而节省空间。 对于AMD的举动,了解英特尔计划的业内消息人士透露,英特尔将于8月初推出新款至强(Xeon)处理器。尽管细节尚未得到确认,但是可以看出,英特尔对于AMD的六核动作似乎有回应的意思。    另外,消息人士还表示,英特
[半导体设计/制造]
统计预测:销售数据令人振奋,7月全球芯片销售增长迅猛
在Terra Securities ASA财务分析师Bruce Diesen向客户的报告中,他指出7月份芯片销售增长迅猛。国际半导体贸易统计组织(World Semiconductor Trade Statistics,WSTS)发布了令人振奋的7月份半导体销售数据,Diesen由此提升了对2007年度芯片销售的预测。 Diesen指出,基于WSTS的平均统计数据,7月份芯片实际销售额比上年同期增长11.3%。WSTS和各地区半导体产业协会的半导体销售三月平均值显示,7月份比上年同期增长2.2%。 对比前两个月,2007年5月和6月单月销售分别比上年同期下滑2.1%和1.8%。Diesen表示,“现在,我们将2007年芯片销售
[焦点新闻]
敏芯半导体已经实现全系列光芯片批量出货
据武汉光谷消息,武汉敏芯半导体股份有限公司(以下简称“敏芯半导体”)实现2.5G、10G、25G全系列光芯片的批量出货,总计向市场交付超过4000万支光芯片,并已将50G速率光芯片列入在研重点。 据报道,在近半年内获得B轮和B+轮融资的敏芯半导体,此前已将半数股权拿出,用于技术核心、经营管理团队成员及部分其他员工的激励。与此同时,公司2020年度产值较2019年度增长10倍。 2019年中国光通信芯片行业概览的数据显示,10G速率的光通信芯片国产率接近50%,而25G速率光通信芯片国产化率仅为5%。随着5G时代到来,市场对25G及以上速率芯片需求逐渐释放。 敏芯半导体成立于2017年12月,是一家专注于光通信用激光器和探测器芯片产
[手机便携]
敏芯半导体已经实现全系列光<font color='red'>芯片</font>批量出货
手机巨头砍单,芯片供应链危矣
今年以来受到通膨升温、俄乌战争、中国大陆封控等三大因素影响,全球手机产业正陷入销售疲软、库存去化龟速的窘境,让苹果、三星两大智能手机巨擘相继传出减产,市场预料明年陆系手机厂也很可能跟进减产,这波市场寒风短时间内恐怕难以停歇。 苹果今年九月发表新款iPhone 14系列手机,销售也呈现两样情,高阶Pro版本销售畅旺,平价款iPhone 14却陷入滞销,让苹果不得不紧急减产平价机种,敲响手机市场疲软的第一声警钟。 三星传出拟大幅调降明年智能手机出货量百分之十三,换算砍单约三千万支,锁定原本销售主力的A系列与M系列中低阶机种。三星是第一家传出调降明年智能手机出货目标的品牌厂,为业界投下震撼弹。市调机构Canalys最新数据指出,
[手机便携]
将贸易作为武器,谁将成为最后的赢家?
三星的芯片面临着日本新出台的出口管制压力 大多数周末,首尔北部现代百货商店内的优衣库门店都熙熙攘攘,挤满了想要在这家以时尚又便宜而著称的日本连锁店里买几件衣服的顾客。但是在7月的一个星期天,它却空无一人。- 这是因为日益激烈的“抵制日货”运动正在韩国蔓延。 韩国人也停止了购买汽车,啤酒,化妆品和其他任何带有“日本制造”标签的东西。有些甚至取消了他们的暑假。“我们原计划在8月去冲绳,但现在改到了济州,”河先生说。他是一家总部位于首尔的金融公司的经理。“我的妻子也告诉我不要去优衣库了。” 有组织的抗议在韩国并不稀奇,它们往往很快就会过去。但是这次的抵制活动可能会有所不同。在韩国人心中,这些抵制活动关系到令他们的情感受到冲击
[嵌入式]
将贸易作为武器,谁将成为最后的赢家?
STM32学习日志——基于NT35510驱动芯片的LCD屏显示
之前写过关于LCD屏的学习日志,当时学得很懵逼,最后先暂时跳过,把教材的例程当成库函数来用,等后面开窍了再回过头来学习一遍。回想大学学习51单片机的时候,也是觉得LCD屏很困难,我觉得新手很容易就在这里从就入门到放弃了,因为相比前面的知识,个人认为LCD算是一个比较复杂的外设,难度有阶梯式的上升。再加上学习的教材为了兼容各种驱动芯片,程序看起来比较乱。所以这次单把NT35100这款驱动芯片拎出来分析学习。 这里使用的是ATK-4.3'TFTLCD模块,他是采用NT35510芯片驱动,分辨率为800*480,自带GRAM。 ATK-4.3’ TFTLCD模块正面图 一、引脚与GRAM 它一共有34个引脚。原理图及
[单片机]
中国新超算彻底告别进口CPU 国产芯片已可与国外抗衡
  日前, 飞腾 已经完成FT-2000plus服务器 CPU 的研制工作, 飞腾 公司的合作伙伴正在积极研发相应的整机产品。FT-2000plus这款芯片是以FT2000为基础的改进版本,虽然在单核性能上和Intel还存在一定差距,但在多核性能上,已经达到Intel服务器 CPU  E5 主流产品的水平。下面就随嵌入式小编一起来了解一下相关内容吧   据传,国防科大正在研发的1000P超算天河3号(性能指标是神威太湖之光的8倍),其原型机的 CPU 或将采用FT-2000或其后继产品作为主控CPU。考虑到在天河2A上,国防科大已经用自主研发的加速器矩阵2000取代Intel的Xeon Phi计算卡。从今往后,天河系列超算也将和
[嵌入式]
首个台积电WoW 3D封装芯片量产,Graphcore Bow IPU问世
日前,IPU公司Graphcore(拟未)宣布推出其全新称为Bow的IPU,以及计算刀片:Bow-Machine和计算系统Bow Pod系列。相比较搭载第二代IPU——Colossus Mk2 GC200的M2000而言,Bow Pod系列可以实现总体40%的性能提升,以及每瓦性能16%的提升。 摩尔定律放缓,封装跟上 摩尔定律放缓已经成为了一个不争的事实。而其失效原因,归根结底是在于漏电与散热问题,因此业界纷纷提出各种解决方案,包括DSA架构、3D封装等,小心地避开晶体管物理陷阱。 实际上在Graphcore宣布推出Mk1时,就采用了多内核计算与细粒度存储SRAM紧耦合的架构,从而解决AI时代所面临的数据传输瓶颈。而
[嵌入式]
首个台积电WoW 3D封装<font color='red'>芯片</font>量产,Graphcore Bow IPU问世
小广播
最新网络通信文章
换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved