技术进展一日千里 嵌入式应用结合AI成趋势

最新更新时间:2018-05-29来源: 新电子关键字:AI 手机看文章 扫描二维码
随时随地手机看文章

人工智能(AI)进展神速,且随着开发工具、环境越来越成熟,加上芯片性能不断提升,AI演算法已经可以直接在嵌入式设备上,利用训练好的模型进行推论,实现各种智能应用。


另一方面,训练模型的难度也越来越低,甚至已经有业者跟技术研究法人推出DIY式的模型训练平台。嵌入式设备结合AI,必成大势所趋。


从Deepmind推出的AlphaGo打败世界围棋高手至今,不过短短两三年,人工智能技术的应用已经开枝散叶,并进驻各种终端装置。其中,影像辨识的技术进展速度最快,许多带有机器视觉功能的嵌入式装置,已经开始与机器学习(ML)、深度学习(DL)等AI演算法结合,让机器设备不只能看得到,更能看得懂自己所看到的影像究竟代表何种意义。


FPGA扫除障碍 嵌入式视觉结合ML


安驰科技技术应用工程部经理吴文忠(图1)表示,目前深度学习或机器学习所面临的最主要的挑战有三,一是必须针对不同的使用情境使用不同网路跟优值(Figure of Merits);二是必须处理大量的乘法运算跟庞大的资料集,三则是新的演算法不断出炉,使用固化(Harden)的加速器芯片有很高的风险。


图1 安驰科技应用工程部经理吴文忠指出,人工智能演算法日新月异,芯片本身必须具备相当高的弹性,才能灵活地支援最新的演算法。


若是针对嵌入式应用,功耗与运算效能则是必须额外考量的重点。因为嵌入式应用往往在成本、功耗、散热等规格上,面临更严格的限制。由于推论演算法的快速进步,现在ML或DL演算法可以在不会对推论准确率造成明显影响的前提下,利用降低精度的方式来减少对处理器的运算效能需求,并且明显降低功耗。这对于有意整合DL、ML的嵌入式应用开发者来说,无疑是一大福音。


不过,由于嵌入式应用开发商面对的是很典型的少量多样市场,因此开发商在选择芯片解决方案时,还是要注重应用设计上的弹性。有些应用或客户可能对推论的准确度要求较严格,有些则可以接受一定程度的妥协。因此,理想的芯片架构必须十分弹性,能支援任意精度的运算。


不过,FPGA毕竟不是一般常见的处理器,其设计语言通常是Verilog等硬体描述语言(HDL),待硬体设定完成后,才会执行一般以C语言撰写的程式。因此,对一般嵌入式应用产品的开发者来说,要使用FPGA来设计应用,是存在一定门槛的。


有鉴于此,赛灵思(Xilinx)近年来在开发工具与相关设计环境上不断投入资源,借由SDSoC、SDAccel等开发环境与工具链,让FPGA的应用设计门槛大幅降低。在某些情况下,甚至可以用C语言直接设计以FPGA为基础的应用。


针对这波人工智能浪潮,赛灵思也已经做好准备,可提供给用户xDNN CNN Overley、xfDNN中介软体、相关工具与Runtime。这些底层可以支援目前市面上绝大多数的开源NN框架,例如Caffe、Go等深度学习框架。让即便对FPGA本身没有很深入了解的人工智能软体工程师,也能利用FPGA开始设计自己的应用。


此外,针对机器视觉应用,赛灵思还提供OpenCV硬体加速功能,称为xfOpenCV。该方案是一个针对FPGA最佳化的OpenCV函式库(Library),内含超过50种应用开发上最需要的OpenCV函式。由于该函式库是针对FPGA进行最佳化,因此开发者利用该函式库所写出来的软体,可以充分利用FPGA的运算资源,执行效率更好。


吴文忠总结说,以往影像辨识得要靠伺服器这类具有强大运算能力的设备才能跑得动,但随着赛灵思芯片、开发板与软体工具环境到位,现在影像辨识这类人工智能功能,已经可以直接在各种嵌入式设备上执行。嵌入式设备结合AI,相信将是大势所趋。


模型训练非难事 DIY平台现身


嵌入式硬体已具备支援模型推论的能力,但对有意发展机器学习、深度学习等人工智能技术应用的业者来说,推论所使用的模型要如何建立,也是一大关键。


一个精准的模型除了本身设计要好之外,还需要靠标签完成、品质良好的资料集来训练。这种资料集需要投入大量人力物力来整理,而且在训练的过程中不仅要使用具备高运算效能的设备,还得花上一段时间。因此,要发展出自己的机器学习或深度学习模型,可是工程浩大。


资策会数位转型所副主任刘文山(图2)表示,深度学习在影像、自然语言辨识等应用领域近年来有长足进展,因此很多业者都想将深度学习应用在未来的产品上。不过,一个完整的深度学习模型包含数百万个参数,需要百亿次以上的计算量,因此在模型训练的过程中,势必要动用大量运算资源。另一方面,训练用的资料集要如何取得,对许多有意开发深度学习应用的开发者来说,也是一个很大的挑战。


图2 资策会数位转型所副主任刘文山表示,资策会正在进行中的AIY专案,将可明显降低模型训练所需的资源跟技术门槛。


一般来说,训练用的资料集越庞大,模型的准确率越高。但要如何搜集够庞大的资料,却是一大问题。而且,越是特别、例外、异常的资料,越难搜集到,但这些特别或异常的状况,却是引发模型判断错误,导致准确率下降的重要原因之一。即便开发者克服重重困难,收集到完整度高、数量够多的资料集,传统上,训练用的资料集还需要经过人工标签,这又是另一个旷日废时的大工程。


针对上述跟资料集有关的难题,目前业界正在发展非监督式学习、转移式学习等新技术,以降低模型训练时对资料集的依赖。


资策会数位转型所内部也正在进行一个名为AIY的专案,中文名称则是“智己造”,目标是让开发者能自己DIY出所需要的AI模型,而且准确度必须有一定水准。该专案目前已经进展到可以展示的阶段。


目前该专案已经发展出一套云端工具,可以支援图像辨识或人脸辨识。使用者可以透过该工具提供的介面来设定模型训练的几个重要参数,并看到模型训练的进度。当模型训练出来,准确率达到可以接受的水准后,该工具还可以对模型进行压缩,牺牲一点准确率来缩小模型。缩小后的模型,尺寸约只有原始模型的六分之一,以便让手机、嵌入式装置等储存空间跟运算效能都有限的终端装置也能跑得动。


嵌入式系统电源设计面临更多挑战


而随着嵌入式应用开始与人工智能演算法结合,即便仅是使用训练好的模型来进行推论,对处理器芯片的效能要求仍会有一定程度的提升,也可能出现以FPGA甚至ASIC当做加速器的设计需求。对嵌入式系统的电源而言,这会在系统中引入新的变数,且势必要进一步提高电源供应器的能源密度。


怀格(Vicor)资深技术支援工程师张仁程(图3)表示,从电源的角度来看,不管是CPU、GPU或FPGA、加速器,一样都是负载点(POL)。不过,对电源设计来说,这些新型态处理器芯片的出现,意味着系统的电源树会变得更为复杂。此外,随着半导体制程越来越先进,处理器对电源杂讯的忍受度也跟着降低。最后,支撑整个系统运作所需要的电源功率,也会跟着提升。

图3 怀格资深技术支援工程师张仁程指出,模组化的电源设计,能为支援AI的嵌入式应用带来许多好处。


模组化的电源设计思路,可以让设计人员更灵活地因应变化多端的电源需求,是简化电源设计复杂度的有效方法。电源的杂讯则跟电路拓扑设计的功力有关,针对低杂讯电源,怀格已经发展出许多独特的电路拓扑,来满足未来设计人员在开发产品时的需求。

而电源系统的输出功率需求越来越高,则是电源业界始终不变的发展趋势,真正的挑战在于,如何在电源系统体积不变的前提下,提供更高的功率输出,并解决随之而来的散热问题。


就怀格的观点,模组型的电源设计,也是进一步提升电源密度必然要走的路。传统的AC-DC电源供应器虽然还可以设计得更小,但相较于以转换器级封装(Converter Housed in Package, ChiP)技术实现的电源方案,在尺寸上还是有数倍到数十倍的差异。


至于在散热方面,随着模组封装外壳进入铜世代,这类模组的散热性能将进一步得到提升,在许多应用环境下,甚至可以利用机构外壳来当作散热器(Heatsink),不必再外挂沉重又庞大的散热器,也不必使用散热风扇。这对于缩小嵌入式产品的体积、减轻重量跟提高系统稳定度,都有很大的帮助。

关键字:AI 编辑:王磊 引用地址:技术进展一日千里 嵌入式应用结合AI成趋势

上一篇:MOSFET涨价题材激励 产能满载到年底
下一篇:WPA3安全协议出台 WiFi设备将大换血

推荐阅读最新更新时间:2023-10-13 10:35

机器人能和人一样吗?看了就知道
四臂挥舞,手术 机器人 在医生的操作下精准灵巧地切除病变组织;有序避让,仓管机器人在智能运营系统的指挥下将商品精准无误地送达拣货处;协作机器人可以无需防护与工人协同工作;服务机器人已应用于餐饮、金融等行业......无可否认,机器人已经从初时的简单劳动工具和设备,逐步上升为可靠的工作助手和生活伙伴。   智能机器人的数量将快速增长,30年后即可达到约人类总数相当的级别。并认为:“到时,人类的所有工种、所有行业都将被重新定义,医药产业、汽车产业和信息产业将首当其冲,即便是农业这种最古老的行业也将重新被定义。因为此前我们创造工具是为了服务人类,而现在工具已经超越了人类。”   下面,就让我们一起来看看那些可能会让人类“担忧”实的前沿技
[嵌入式]
人工智能时代火爆,智能照明会怎么变?
  通过手机上的APP控制电灯的开关,或者随心所欲地设置灯具的明暗和颜色,这在“昨天”还是一件很酷的事情,而到了今天似乎就有点OUT了——当下流行的智能照明新玩儿法是:冲着电灯喊一声,TA就乖乖照着做了。下面就随网络通信小编一起来了解一下相关内容吧。   这貌似简单的“语音控制”里面,其实暗含着一个并不简单的控制链路——比如,家里的智能音箱负责收集你的语音,并将其传输到云端,然后经过语音识别处理和计算,转化为电灯能够“听懂”的控制指令,下发给TA。这种智能照明体验方式的升级,全赖一个原因—— 人工智能 (AI)来了。   有人将智能照明的“境界”分为三个层次:   第一个层次就是能够实现状态感知、自动决策和即刻执行的初级阶
[网络通信]
人工智能新应用 LG将推出内建AI架构OLED电视
根据韩国媒体《ETNEWS》的报导,韩国电视大厂LG将推出内含AI架构的OLED电视。该系列内建AI架构的OLED电视,预计在2018年内推出10种机款。而由于价格相较之前的OLED电视有所下降,而且具备AI架构的情况下,市场预计推出后将受到重视。 报导指出,该系列内含AI架构的OLED电视采用LG自行研发的Alpha 9智能处理器,其CPU及GPU的运算能力较以往处理器提高35%,并配备4步骤杂讯抑制、“进阶映射”(Advanced Mapping)及改进颜色校正运算法,让画面的清晰度、颜色、渐变层次都有较以往更佳的表现。 另外,除了在色彩与画质的控制上,透过Alpha 9智能处理器的处理,有更好的表现之外。在使用者界面上,也
[家用电子]
NVIDIA Jetson TX2 赋能终端设备实现人工智能
中国北京— 2017年3月8日—NVIDIA公司(纳斯达克代码:NVDA)今日宣布推出NVIDIA® Jetson™ TX2,这一仅有信用卡大小的平台可为终端应用提供人工智能计算支持,助力打造高度智能化的工厂机器人、商用无人机和智能摄像头等,全面开启人工智能城市的大门。 Jetson TX2所提供的性能为早前版本的两倍,即能够以两倍以上的功效运行,且功率低于7.5瓦。这使得Jetson TX2能够在终端应用上运行更庞大、更深度的神经网络,让设备更加智能,具有更高的精度和更快的响应时间,以执行如图像分类、导航和语音识别等任务。 NVIDIA全球副总裁、Tegra事业部总经理Deepu Talla表示:“Jetson TX2为
[物联网]
NVIDIA Jetson TX2 赋能终端设备实现<font color='red'>人工智能</font>
自动驾驶处理器是人工智能产业的珠穆朗玛
我们这一代做人工智能的人,幸运之处就在于:我们熬过了AI的寒冬,身处于一个AI技术引领全球科技的时代,而中国,也疾行于千年以来又一次民族复兴的进程之中,在这幅恢弘的历史画卷之中,无论是从技术难度、经济规模,还是战略影响来看,自动驾驶处理器都堪称这个时代科技的珠穆朗玛。不负时代,无问西东,是我们这代人的责任与使命。谁赢得了自动驾驶处理器,谁就赢得了人工智能时代!——地平线创始人兼CEO余凯 中国人工智能产业爆发背后的巨大隐忧 近日,英国权威杂志《经济学人》以封面文章的形式,发表题为《中美数字霸权之争》的深度分析报道,而人工智能正是竞争的主战场。近年来,中国在人工智能应用方面的进展令人印象深刻,表现为四个核心优势: 政府高度支持、
[汽车电子]
人工智能全面带动产业提升竞争力 5G将扩展垂直行业应用
全球市场研究机构TrendForce于29日举办2018集邦拓墣大预测研讨会,由多位分析师分别针对半导体、通讯、面板、消费性电子、人工智能(AI)、生物科技、自驾车(车联网)与物联网领域进行专题报告。 全球市场研究机构TrendForce 于29日于台大医院国际会议中心101室,举办2018集邦拓墣大预测研讨会,可发现AI对于各种产业的影响越来越广且深,而数据与分析方式则成为各家厂商加强自家竞争力必备利器。各项专题报告精彩内容节录如下: AI带动半导体产业销售数量 并可改善半导体生产方式 AI (人工智能)对半导体产业的影响,已从销售机会与生产方式升级两项指标逐步显现,包括OS厂商、EDA、IP厂商、IC芯片厂商都
[网络通信]
前有Android被弃后有AI兴起 Google还看重 VR 吗
    从去年的 Google I/O 开始,Google 就将 “mobile first”的发展目标转为了 “AI first”,到今年也更加坚定不移的执行着,因此你会看到在今年的大会上,有1/3 多的时间是在主讲 AI,而在大会的其他环节,AI 也是贯穿其中,就连讲到 Google 的大当家 Android 时,谈及最多的也是各种基于 AI 的 XX 功能。 (Google 在去年就提出了 AI first 图自:Engadget)   AI 已经是 Google 如今的重点关爱对象,Android 已经沦为配角,但似乎还有一样的东西的存在被忽视了,那就是 VR,而且很少有人在会下谈论他们。   人们曾一度认为 VR 将成为
[手机便携]
将进化压缩到闪电般速度,AI几秒内设计出独特的行走机器人
大自然花了数十亿年时间才进化出第一个行走的物种,但人类开发的新算法却能将进化压缩到闪电般的速度,在短短数秒钟内成功设计出一个行走机器人。美国西北大学的这项研究成果发表于最新一期《美国国家科学院院刊》。 新AI算法将数十亿年的进化压缩为数秒钟。 这一人工智能(AI)程序不仅运行速度快,还可在个人计算机上运行,并从头开始设计全新的结构。研究人员表示,他们开发的AI驱动的设计算法,可绕过进化路上的“交通拥堵”,而不会依赖人类设计师的想法。只需告诉AI“我们想要一个可穿越陆地的机器人”,然后按下一个按钮,它在眨眼间就生成了一个机器人的蓝图,看起来与在地球上行走过的任何动物都截然不同。这个过程被团队称为“即时进化”。 新设计的
[机器人]
小广播
最新半导体设计/制造文章
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 市场动态 半导体生产 材料技术 封装测试 工艺设备 光伏产业 平板显示 EDA与IP 电子制造 视频教程

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved