冲破摩尔定律,类脑芯片怎样使机器超越人脑

发布者:玉立风华最新更新时间:2018-02-01 来源: 智东西关键字:类脑  AI 手机看文章 扫描二维码
随时随地手机看文章

  智东西文 | 轩窗


  最近,在AI领域无论是学术界的大咖还是行业的大佬,都在如火如荼的搞类脑芯片的研究,当然也取得了不少成果。日前,斯坦福大学研究院电子与微系统技术实验室的Jeehwan Kim教授在《自然》杂志上发表了一篇论文,一时间引来了产学研三界的关注。原因是Jeehwan Kim教授与研究员们使用一种称为硅锗的材料研发了一款人工突触芯片,可支持识别手写字体的机器学习算法。无独有偶,近日中国科学院自动化研究所类脑智能研究中心类脑信息处理(BRAVE)研究组也在借鉴生物神经结构的神经网络建模与类人学习研究中取得了突破性的研究。


  从计算机诞生起,人们就不断要求它的计算能力提升,随着芯片集成性越来越高,CPU与内存之间的性能差距越来越大。基于冯诺依曼结构的计算机结构呈现的缺点也愈加明显,也有人称这为内存墙,意思是说CPU再快,也要等内存。相比之下,人脑却没有此类问题出现,据研究表明,人类大脑平均每秒可执行 1 亿亿次操作,所需能量只有 10~25 瓦特。因而研究员们正转向模拟人类大脑研究,试图通过模拟人脑运转机制,使计算机能低能耗高功效地进行计算,甚至使计算机优于类人的智能。


  国内外有许多公司和机构正在类脑芯片研发上投入大量精力,美国在此项研究上开始较早,2014年IBM就推出了业内首款类脑芯片TrueNorth。国内最近几年在芯片研发上也不甘示弱,也有西井科技这样的初创公司投身到类脑芯片的研发中来,清华等知名高校也纷纷建立类脑研究中心。


  相比于传统芯片,类脑芯片的确在功耗上具有绝对优势,拿英特尔在本次CES上展出的自我学习芯片Loihi来说,不仅其学习效率比其他智能芯片高100万倍,而且在完成同一个任务所消耗的能源比传统芯片节省近1000倍。类脑芯片的集成度也非常高,拿浙大推出的“达尔文”芯片来说,其面积为25平方毫米,也就是说边长只有0.5厘米,但内部却能包含500万个晶体管。随着行业对计算力要求越来越高,冯氏瓶颈将越来越明显,颠覆传统架构的类脑芯片已为芯片行业开启了一扇新的大门。


  一、传统芯片遇冯·诺依曼瓶颈 模拟神经元成新思路


  现代计算机基本都基于冯·诺依曼结构,它将程序和处理该程序的数据用同样的方式分别存储在两个区域,一个称为指令集,一个称为数据集。计算机每次进行运算时需要在CPU和内存这两个区域往复调用,因而在双方之间产生数据流量。而随着深度学习算法的出现,对芯片计算力的要求不断提高,冯·诺伊曼瓶颈遇见明显:当CPU需要在巨大的资料上执行一些简单指令时,资料流量将严重降低整体效率,CPU将会在资料输入或输出时闲置。


  不仅如此,传统芯片还存在一个大问题就是效率低。芯片在工作时,大部分的电能将转化为热能,一个不带散热器的计算机,其CPU产生的热量就可在短时间内将其自身融化。其他的智能化设备,也因芯片复杂耗能太高,导致续航能力差,不管如何改善工艺,高温和漏电都是难以避免的问题。


  为了解决CPU在大量数据运算效率低能耗高的问题,目前有两种发展路线:一是延用传统冯诺依曼架构,主要以3中类型芯片为代表:GPU、FPGA、ASIC;二是采用人脑神经元结构设计芯片来提升计算能力,已完全拟人化为目标,追求在芯片架构上不断逼近人脑,这类芯片被称为类脑芯片。

冲破摩尔定律,类脑芯片怎样使机器超越人脑 - 后花园网文 - 科技新闻



  人脑神经元在接受到刺激后,其细胞膜内外带电离子分布将发生变化,因而形成电位差,电位差将沿着神经细胞轴突、树突双向传导,形成脉冲电流。而当该电信号传递到突触时,突触前神经元将释放神经递质(如多巴胺、肾上腺素)由突触后神经元接受神经递质产生兴奋(该过程单向传递),并向下传递作用与人体反应器并发生反应。


  类脑芯片架构就是模拟人脑的神经突触传递结构。众多的处理器类似于神经元,通讯系统类似于神经纤维,每个神经元的计算都是在本地进行的,从整体上看神经元们分布式进行工作的,也就是说整体任务进行了分工,每个神经元只负责一部分计算。在处理海量数据上这种方式优势明显,并且功耗比传统芯片更低。比如IBM的TrueNorth芯片每平方厘米功耗消耗仅为20毫瓦。


  二、类脑芯片虽面世 但大规模商用进展缓慢


  相比于依靠冯诺依曼结构的GPU、FPGA、ASIC来说,类脑芯片是一种相对处于概念阶段的集成电路。目前面世的类脑芯片并不多,更不要说大规模的商业化了。


  美国为保持技术优势,率先发起类脑计算芯片的相关研究工作,通过模仿人脑工作原理,使用神经元和突触的方式替代传统冯诺依曼架构体系,使芯片能够进行异步、并行、低速和分布式处理信息数据,并具备自主感知、识别和学习的能力。因此市面上第一款类脑芯片就来自于美国的IBM公司。


  1、IBM TrueNorth(SyNAPSE芯片)


  2011年8月,IBM率先在类脑芯片上取得进展,他们在模拟人脑大脑结构基础上,研发出两个具有感知、认知功能的硅芯片原型。但因技术上的限制,IBM戏称第一代TrueNorth为“虫脑”。2014年TrueNorth第二代诞生,它使用了三星的28nm的工艺,共用了54亿个晶体管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。


冲破摩尔定律,类脑芯片怎样使机器超越人脑 - 后花园网文 - 科技新闻


  (IBM Truenorth芯片)


  每个核都简化模仿了人类大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(存储器)和64000个突触(神经元和轴突之间的通信)。总体来看,TrueNorth芯片由4096 个内核,100 万个 “神经元”、2.56 亿个 “突触” 集成。此外,不同芯片还可以通过阵列的方式互联。


  IBM称如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。


  从2014年亮相后,这款芯片一直没有大的动作。不久前,TrueNorth终于传出了新进展,有报道称IBM公司即将开发由64个“TrueNorth”类脑芯片驱动的新型超级计算机。这一计算机能进行大型深度神经网络的实时分析,可用于高速空中真假目标的区分,并且功耗比传统的计算机芯片降低4个数量级。如果该系统功耗可以达到人脑级别,那么理论上就可以在64颗芯片原型基础上进一步扩展,从而能够同时处理任何数量的实时识别任务。


  2、英特尔Loihi芯片


冲破摩尔定律,类脑芯片怎样使机器超越人脑 - 后花园网文 - 科技新闻


  (英特尔神经拟态芯片Loihi)


  几日前的CES上芯片巨头英特尔展示了其首款自学习神经元芯片Loihi,去年9月英特尔就曾宣称历时十年研究设计出了这款芯片的原型。Loihi芯片可以像人类大脑一样,通过脉冲或尖峰传递信息,并自动调节突触强度,通过环境中的各种反馈信息,进行自主学习、下达指令。据英特尔方面称Loihi内部包含了128个计算核心,每个核心集成1024个人工神经元,总计13.1万个神经元,彼此之间通过1.3亿个突触相互连接。


  相比于人脑内的800多亿个神经元,Intel这款芯片的运算规模仅仅比虾脑大一点。但根据英特尔给出的数据Loihi的学习效率比其他智能芯片高100万倍,而在完成同一个任务所消耗的能源可节省近1000倍。


  3、高通Zeroth芯片


  芯片巨头高通也在进行类脑芯片的研发,早在2013年高通就曾公布一款名为Zeroth的芯片,Zeroth不需要通过大量代码对行为和结果进行预编程,而是通过类似于神经传导物质多巴胺的学习(又名“正强化”)完成的。高通为了让搭载该芯片的设备能随时自我学习,并从周围环境中获得反馈,还为此开发了一套软件工具。在公布的资料中高通还用装载该芯片的机器小车进行了演示,使小车在受人脑启发的算法下完成寻路、躲避障碍等任务。


  国内也开始了类脑芯片的研究,除清华等知名高校开设研究院外,也出现了专注类脑芯片研发的创企,代表企业如上海的西井科技。


  4、西井科技DeepSouth芯片


  西井科技是国内研究类脑强人工智能的公司,目前西井已推出了自主研发的拥有100亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的5000 万类脑神经元芯片(DeepSouth)两款产品。 DeepSouth 是一款可商用化的芯片,它能模拟出高达 5000 万级别的“神经元”,总计有 50 多亿“神经突触”。据西井CEO谭黎敏称,该芯片除了具备“自我学习、自我实时提高”的能力外,还可以直接在芯片上完成计算,不需要通过网络连接后台服务器,可在“无网络”情况下使用。


  能耗方面,DeepSouth 在同一任务下的功耗仅为传统芯片的几十分之一到几百分之一。


  5、浙大“达尔文”类脑芯片


  (浙大和杭州电子科技共同研发的“达尔文”芯片)


  2015年一群来自浙江大学与杭州电子科技大学的年轻的研究者们研发出一款成为达尔文的类脑芯片。这款芯片是国内首款基于硅材料的脉冲神经网络类脑芯片。“达尔文”芯片面积为25平方毫米,比1元硬币还要小,内含500万个晶体管。芯片上集成了2048个硅材质的仿生神经元,可支持超过400万个神经突触和15个不同的突触延迟。


  据研发团队介绍说,这款芯片可从外界接受并累计刺激,产生脉冲(电信号)进行信息的处理和传递,这如我们前面提到的人类神经元间的信息传递一样。研发人员还为“达尔文”开发了两款简单的智能应用。一是这款芯片可识别不同人手写的1-10这10个数字,二是“达尔文”在接受了人类脑电脑后,可控制电脑屏幕上篮球的移动方向。在熟悉并学习了操作者的脑电波后,“达尔文”会在后续接受相同刺激时做出同样反映。


  6、AI-CTX芯片


  此外,国内也出现了一些小型的类脑芯片研究团队,如AI-CTX团队。据称他们目前设计出了一款类脑芯片模型,不仅每个神经元都具有跟人脑神经元类似的电学特征与动态参数,具有简单的运算与存储功能。他们还采用了一种特殊的布线方式,使各芯片之间的交流突破物理限制,进而增加芯片群组的原有网络。这一芯片不适合处理静态硬盘数据,但擅长处理如温度、气压、人体信号、loT等包含时间参数的数据。


  虽然目前市面上出现了几款类脑芯片,但其在计算力上还不及传统架构芯片快。为了提升计算机对大规模数据的运算效率,芯片企业现在最常见的做法就是基于传统芯片架构,搭载人工神经网络,从功能上模拟人脑计算的GPU、FPGA·、ASIC三种芯片,加上类脑芯片,并称为AI芯片。智东西曾利用过去的一年时间,深入到芯片产业链上下游,遍访AI芯片各大公司以及创企,并进行过详细细致的报道。深入企业涉及英伟达、谷歌、联发科等。


  三、类脑计算成新方向


  人脑的这三大特性始终是计算机无法比拟的:一是低能耗,人脑的功率大约为20瓦,而目前计算机功耗需要几百万瓦;二是容错性,人脑时刻都在失去神经元,而计算机失去一个晶体管就会破坏整个处理器;三是无需编程,大脑在于外界交互过程中自发学习和改变,并非遵循预先设计好的算法。


  中国也十分重视类脑研究,并将类脑计算作为国家战略发展的制高点。中国不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。


  中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。


  结语:类脑芯片或将赋予机器智能


  目前,搭载神经网络引擎的芯片层出不穷,芯片巨头和初创们都在原有的冯诺依曼架构上争相利用神经网络优化芯片计算力。从目前这类AI芯片的表现上看,FPGA的灵活性较好但开发难度大,ASIC因其功耗低、开发难度适中将在终端AI芯片上具有较大优势。


  类脑芯片不仅能提高计算机的计算速度、降低功耗,其在国防领域也将发挥重要作用,对研发高度自主性的智能机器人以及提高其他设备的智能水平也有重要意义。就让机器实现智能这一人工智能终极理想来说,从人类自身结构出发是一可选思路,但并非仅此一种。


  从现在各大公司的研究成果来看,像IBM TrueNorth这样的类脑芯片运行的效率还不及以上提到的在传统架构上运用神经网络的芯片。但冯诺依曼瓶颈是客观存在的事实,随着运算数据量的增加,这一短板将越来越明显。


  而人脑也的确凭借低功耗、高运算力成为计算机芯片研发学习的方向,但短期内类脑芯片还难以表现出其优势,或许随着对人脑研究的深入,会有人像牛顿一样被“上帝的苹果”砸中,从而拥有敲开具有高速运算力的类脑芯片领域的敲门砖。或许现在的传统架构加神经网络芯片就是像牛顿的万有引力定律一样适用于数据量较大的运算,而类脑芯片像爱因斯坦的相对论一样在实现机器智能上更具潜力。


关键字:类脑  AI 引用地址:冲破摩尔定律,类脑芯片怎样使机器超越人脑

上一篇:贸泽电子与Insight SiP 签署全球分销协议 开售整套交付BLE模块
下一篇:这些年火起来的OLED/量子点,也许还打不赢LCD

推荐阅读最新更新时间:2024-05-03 02:24

DOTA 2 TI7国际邀请赛人工智能打败人类玩家,比AlphaGo厉害
当我昨天看到Open AI 的 人工智能 ,在一项奖金2400万美元的 电子竞技 赛事上,击败DotA2人类顶级高手时,整个人感觉超兴奋。 这是因为,一方面我是一个电子竞技的粉丝。尽管没玩过DotA 2,但我经常在Twitch上观看其他其他电竞赛事,高中时我还当过一阵半职业选手。 更重要是的,像DotA这类多人在线战术竞技游戏(MOBA),以及星际2这类实时策略游戏(RTS),通常被认为远超目前人工智能的驾驭能力。因为这两类游戏需要长期战略决策、多人合作,比国际象棋、围棋有着更复杂的状态和动作空间。 DeepMind已经在星际2上研究了一段时间,前不久刚刚发布了新的进展,但目前为止,相关研究还没有取得重大突破。大家普遍认为,距离
[嵌入式]
手机AI化芯片渐成趋势 如何迎战功耗难题
这一边,华为刚推出全球首款搭载A?I芯片麒麟970、能够“深度学习”的手机mate10;那一边,结束4G/5G峰会的高通则马不停蹄与AI厂商商汤合作,从芯片层优化AI算法。 如果说最近刷爆朋友圈的三代AlphaGo Zero只是让群众“不明觉厉”,那么AI手机似乎离我们越来越近了。实际上,使用AI的手机已经屡见不鲜,比如直播软件的滤镜、支付软件的人脸识别,或者是siri、小冰之类的语音助手。但如果软件目前已经可以解决手机AI化的问题,那么AI芯片还有市场空间吗? AI手机的计算量 与电池续航问题 “其实用户感知不明显,但AI一直在进步。比如说美颜,以前需要拍出来才能看到照片,但现在可以实时预览,”商汤科技CEO徐立告诉
[手机便携]
华硕和腾讯强强联合,共同布局AI机器人市场
  听说华硕和腾讯在领域展开合作了,可是有网友不解的是卖电脑的华硕和腾讯走在一起,在AI领域谋划啥?据报道,近日华硕联合腾讯在北京举办了首款AI机器人ZenboQrobot小布发布会。而且,智能机器人ZenboQrobot小布在京东已经开售。   据悉,华硕以深厚的软硬件技术布局,使小布更加与众不同。小布内含视觉及人工智能技术,双眼携带3D深度感测功能及人身与脸部追踪的视觉及智控技术,背后还运用了超音波技术、光及自动避障技术,可在复杂的环境中轻松实现智能跟随。      华硕集团董事长施崇棠先生出席了当天的发布会,他表示,一直以来,华硕都希望能够引领新时代的年轻工程师一起放胆逐梦,将更多人性融入科技,共同追寻无与伦比
[机器人]
清华在基于新型忆阻器阵列的计算取得重大突破
清华新闻网5月16日电 5月12日,清华大学微电子所钱鹤、吴华强课题组在《自然通讯》(Nature Communications)在线发表了题为 “运用电子突触进行人脸分类”(“Face Classification using Electronic Synapses”)的研究成果,将氧化物忆阻器的集成规模提高了一个数量级,首次实现了基于1024个氧化物忆阻器阵列的类脑计算。该成果在最基本的单个忆阻器上实现了存储和计算的融合,采用完全不同于传统“冯?诺依曼架构”的体系,可以使芯片功耗降低到原千分之一以下。  在人工智能日益火热的今天,由于“冯?诺依曼架构”存在“存储墙瓶颈”,现有计算平台无法高效实现相关算法,功耗成为制约因素。相
[半导体设计/制造]
Helfie.ai 通过智能手机提供快速、简单、准确的新冠状病毒病远程筛查
总部位于澳洲的数码健康品牌 Helfie.ai 让大众可通过智能手机进行快速、轻松、准确的新冠状病毒病远程筛查。 澳洲墨尔本 - Media OutReach - 2022 年 5 月 12 日 - Helfie.ai 正在开创人工智能和医学科学相结合的医疗保健新时代,让任何人都可以透过检查新冠状病毒病的症状便能立即知道他们有否需要进一步测试。 自拍一张;保持健康 Helfie.ai 的联合创始人George Tomeski解释说:「Helfie.ai 让检查新冠状病毒病变得像自拍一样方便和直接,而且像发送短信一般实时和便宜。」 「我们的使命是随时随地为所有人提供可负担、便捷,无侵入性的新冠病毒和类似疾病的筛
[医疗电子]
Helfie.<font color='red'>ai</font> 通过智能手机提供快速、简单、准确的新冠状病毒病远程筛查
汽车半导体巨头的AI野心
汽车成为半导体产业的下一个增长点,可国内厂商要走的路还很远。 从2021年开始汽车缺芯持续了一年后,似乎依旧没有改观。 在整个芯片行业猜测缺芯和产能过剩的真实情况时,汽车芯片的供应情况一直稳定的缺。在此趋势下,“出货”成为了汽车厂们的第一竞争力。 缺芯停产成为困扰国内外汽车公司的共同难题,6月初,Stellantis的三家工厂就因为芯片短缺问题停产,受影响的车型包括Jeep和菲亚特等,丰田汽周二表示,由于半导体短缺,6月份全球出货量计划削减约10万辆至约85万辆。 国内方面,4月蔚来称受供应链影响,暂时停产;6月小鹏汽车董事长也在微博上高调求芯。 困在缺芯泥淖之中,各大车厂也似乎预计半导体短缺将延续到2022年
[汽车电子]
AI照进保险行业
Tractable和Graphcore携手,用人工智能为保险行业的未来提速 Graphcore系统将事故索赔评估性能提升5倍 2021年8月12日,中国北京——Tractable和Graphcore是英国发展最快、最具创新性的两家技术公司。两家公司已联手加速人工智能在事故和灾害恢复中的应用。 Tractable使用人工智能技术提高汽车和财产损失评估的准确性和效率。该公司通过从现有的计算平台切换到Graphcore的IPU,使其图像识别系统的性能提高5倍。 随着公司在全球各地的新用户不断增加,这一显著的加速让Tractable的工程师能够更加迅速地迭代模型训练,从而适应不同的车辆类型和更加广泛的政策标准。 Tr
[物联网]
人工智能带来多核可扩展性,PowerVR Series3NX神经网络加速器
提供0.6至10 TOPS的单核性能及超过160 TOPS的多核可扩展性,以实现前所未有的计算性能和可扩展性等级 Imagination Technologies 宣布推出其面向人工智能(AI)应用的最新神经网络加速器(NNA)架构 PowerVR Series3NX 。基于屡获殊荣的前代产品,新版Series3NX提供了无与伦比的可扩展性,使系统级芯片(SoC)制造商能够针对诸如汽车、移动设备、智能视频监控和物联网边缘设备等一系列嵌入式市场去优化计算能力和性能。 单个Series3NX内核的性能可从0.6到10万亿次操作/秒(TOPS),同时其多核实现可扩展到160TOPS以上。得益于包括无损权重压缩等架构性增强,Se
[物联网]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved