解析目前六款类脑芯片,如何颠覆传统架构

发布者:sjp5035022最新更新时间:2018-01-31 来源: 智东西关键字:人工智能  产业前沿  处理器与DSP 手机看文章 扫描二维码
随时随地手机看文章

最近半年以来,人工智能的发展重心逐渐从云端向终端转移,相伴而生的是全新一代的计算芯片产业全面崛起。

最近,在AI领域无论是学术界的大咖还是行业的大佬,都在如火如荼的搞类脑芯片的研究,当然也取得了不少成果。日前,斯坦福大学研究院电子与微系统技术实验室的Jeehwan Kim教授在《自然》杂志上发表了一篇论文,一时间引来了产学研三界的关注。原因是Jeehwan Kim教授与研究员们使用一种称为硅锗的材料研发了一款人工突触芯片,可支持识别手写字体的机器学习算法。无独有偶,近日中国科学院自动化研究所类脑智能研究中心类脑信息处理(BRAVE)研究组也在借鉴生物神经结构的神经网络建模与类人学习研究中取得了突破性的研究。

从计算机诞生起,人们就不断要求它的计算能力提升,随着芯片集成性越来越高,CPU与内存之间的性能差距越来越大。基于冯诺依曼结构的计算机结构呈现的缺点也愈加明显,也有人称这为内存墙,意思是说CPU再快,也要等内存。相比之下,人脑却没有此类问题出现,据研究表明,人类大脑平均每秒可执行 1 亿亿次操作,所需能量只有 10~25 瓦特。因而研究员们正转向模拟人类大脑研究,试图通过模拟人脑运转机制,使计算机能低能耗高功效地进行计算,甚至使计算机优于类人的智能。

国内外有许多公司和机构正在类脑芯片研发上投入大量精力,美国在此项研究上开始较早,2014年IBM就推出了业内首款类脑芯片TrueNorth。国内最近几年在芯片研发上也不甘示弱,也有西井科技这样的初创公司投身到类脑芯片的研发中来,清华等知名高校也纷纷建立类脑研究中心。

相比于传统芯片,类脑芯片的确在功耗上具有绝对优势,拿英特尔在本次CES上展出的自我学习芯片Loihi来说,不仅其学习效率比其他智能芯片高100万倍,而且在完成同一个任务所消耗的能源比传统芯片节省近1000倍。类脑芯片的集成度也非常高,拿浙大推出的“达尔文”芯片来说,其面积为25平方毫米,也就是说边长只有0.5厘米,但内部却能包含500万个晶体管。随着行业对计算力要求越来越高,冯氏瓶颈将越来越明显,颠覆传统架构的类脑芯片已为芯片行业开启了一扇新的大门。

传统芯片遇冯·诺依曼瓶颈 模拟神经元成新思路

现代计算机基本都基于冯·诺依曼结构,它将程序和处理该程序的数据用同样的方式分别存储在两个区域,一个称为指令集,一个称为数据集。计算机每次进行运算时需要在CPU和内存这两个区域往复调用,因而在双方之间产生数据流量。而随着深度学习算法的出现,对芯片计算力的要求不断提高,冯·诺伊曼瓶颈遇见明显:当CPU需要在巨大的资料上执行一些简单指令时,资料流量将严重降低整体效率,CPU将会在资料输入或输出时闲置。

不仅如此,传统芯片还存在一个大问题就是效率低。芯片在工作时,大部分的电能将转化为热能,一个不带散热器的计算机,其CPU产生的热量就可在短时间内将其自身融化。其他的智能化设备,也因芯片复杂耗能太高,导致续航能力差,不管如何改善工艺,高温和漏电都是难以避免的问题。

为了解决CPU在大量数据运算效率低能耗高的问题,目前有两种发展路线:一是延用传统冯诺依曼架构,主要以3中类型芯片为代表:GPU、FPGA、ASIC;二是采用人脑神经元结构设计芯片来提升计算能力,已完全拟人化为目标,追求在芯片架构上不断逼近人脑,这类芯片被称为类脑芯片。

人脑神经元在接受到刺激后,其细胞膜内外带电离子分布将发生变化,因而形成电位差,电位差将沿着神经细胞轴突、树突双向传导,形成脉冲电流。而当该电信号传递到突触时,突触前神经元将释放神经递质(如多巴胺、肾上腺素)由突触后神经元接受神经递质产生兴奋(该过程单向传递),并向下传递作用与人体反应器并发生反应。

类脑芯片架构就是模拟人脑的神经突触传递结构。众多的处理器类似于神经元,通讯系统类似于神经纤维,每个神经元的计算都是在本地进行的,从整体上看神经元们分布式进行工作的,也就是说整体任务进行了分工,每个神经元只负责一部分计算。在处理海量数据上这种方式优势明显,并且功耗比传统芯片更低。比如IBM的TrueNorth芯片每平方厘米功耗消耗仅为20毫瓦。

类脑芯片虽面世 但大规模商用进展缓慢

相比于依靠冯诺依曼结构的GPU、FPGA、ASIC来说,类脑芯片是一种相对处于概念阶段的集成电路。目前面世的类脑芯片并不多,更不要说大规模的商业化了。

美国为保持技术优势,率先发起类脑计算芯片的相关研究工作,通过模仿人脑工作原理,使用神经元和突触的方式替代传统冯诺依曼架构体系,使芯片能够进行异步、并行、低速和分布式处理信息数据,并具备自主感知、识别和学习的能力。因此市面上第一款类脑芯片就来自于美国的IBM公司。

1、IBM TrueNorth(SyNAPSE芯片)

2011年8月,IBM率先在类脑芯片上取得进展,他们在模拟人脑大脑结构基础上,研发出两个具有感知、认知功能的硅芯片原型。但因技术上的限制,IBM戏称第一代TrueNorth为“虫脑”。2014年TrueNorth第二代诞生,它使用了三星的28nm的工艺,共用了54亿个晶体管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。

▲IBM Truenorth芯片

每个核都简化模仿了人类大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(存储器)和64000个突触(神经元和轴突之间的通信)。总体来看,TrueNorth芯片由4096 个内核,100 万个 “神经元”、2.56 亿个 “突触” 集成。此外,不同芯片还可以通过阵列的方式互联。

IBM称如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。

从2014年亮相后,这款芯片一直没有大的动作。不久前,TrueNorth终于传出了新进展,有报道称IBM公司即将开发由64个“TrueNorth”类脑芯片驱动的新型超级计算机。这一计算机能进行大型深度神经网络的实时分析,可用于高速空中真假目标的区分,并且功耗比传统的计算机芯片降低4个数量级。如果该系统功耗可以达到人脑级别,那么理论上就可以在64颗芯片原型基础上进一步扩展,从而能够同时处理任何数量的实时识别任务。

2、英特尔Loihi芯片

▲英特尔神经拟态芯片Loihi

几日前的CES上芯片巨头英特尔展示了其首款自学习神经元芯片Loihi,去年9月英特尔就曾宣称历时十年研究设计出了这款芯片的原型。Loihi芯片可以像人类大脑一样,通过脉冲或尖峰传递信息,并自动调节突触强度,通过环境中的各种反馈信息,进行自主学习、下达指令。据英特尔方面称Loihi内部包含了128个计算核心,每个核心集成1024个人工神经元,总计13.1万个神经元,彼此之间通过1.3亿个突触相互连接。

相比于人脑内的800多亿个神经元,Intel这款芯片的运算规模仅仅比虾脑大一点。但根据英特尔给出的数据Loihi的学习效率比其他智能芯片高100万倍,而在完成同一个任务所消耗的能源可节省近1000倍。

3、高通Zeroth芯片

芯片巨头高通也在进行类脑芯片的研发,早在2013年高通就曾公布一款名为Zeroth的芯片,Zeroth不需要通过大量代码对行为和结果进行预编程,而是通过类似于神经传导物质多巴胺的学习(又名“正强化”)完成的。高通为了让搭载该芯片的设备能随时自我学习,并从周围环境中获得反馈,还为此开发了一套软件工具。在公布的资料中高通还用装载该芯片的机器小车进行了演示,使小车在受人脑启发的算法下完成寻路、躲避障碍等任务。

国内也开始了类脑芯片的研究,除清华等知名高校开设研究院外,也出现了专注类脑芯片研发的创企,代表企业如上海的西井科技。

4、西井科技DeepSouth芯片

西井科技是国内研究类脑强人工智能的公司,目前西井已推出了自主研发的拥有100亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的5000 万类脑神经元芯片(DeepSouth)两款产品。 DeepSouth 是一款可商用化的芯片,它能模拟出高达 5000 万级别的“神经元”,总计有 50 多亿“神经突触”。据西井CEO谭黎敏称,该芯片除了具备“自我学习、自我实时提高”的能力外,还可以直接在芯片上完成计算,不需要通过网络连接后台服务器,可在“无网络”情况下使用。

能耗方面,DeepSouth 在同一任务下的功耗仅为传统芯片的几十分之一到几百分之一。

5、浙大“达尔文”类脑芯片

▲浙大和杭州电子科技共同研发的“达尔文”芯片

2015年一群来自浙江大学与杭州电子科技大学的年轻的研究者们研发出一款成为达尔文的类脑芯片。这款芯片是国内首款基于硅材料的脉冲神经网络类脑芯片。“达尔文”芯片面积为25平方毫米,比1元硬币还要小,内含500万个晶体管。芯片上集成了2048个硅材质的仿生神经元,可支持超过400万个神经突触和15个不同的突触延迟。

据研发团队介绍说,这款芯片可从外界接受并累计刺激,产生脉冲(电信号)进行信息的处理和传递,这如我们前面提到的人类神经元间的信息传递一样。研发人员还为“达尔文”开发了两款简单的智能应用。一是这款芯片可识别不同人手写的1-10这10个数字,二是“达尔文”在接受了人类脑电脑后,可控制电脑屏幕上篮球的移动方向。在熟悉并学习了操作者的脑电波后,“达尔文”会在后续接受相同刺激时做出同样反映。

6、AI-CTX芯片

此外,国内也出现了一些小型的类脑芯片研究团队,如AI-CTX团队。据称他们目前设计出了一款类脑芯片模型,不仅每个神经元都具有跟人脑神经元类似的电学特征与动态参数,具有简单的运算与存储功能。他们还采用了一种特殊的布线方式,使各芯片之间的交流突破物理限制,进而增加芯片群组的原有网络。这一芯片不适合处理静态硬盘数据,但擅长处理如温度、气压、人体信号、loT等包含时间参数的数据。

虽然目前市面上出现了几款类脑芯片,但其在计算力上还不及传统架构芯片快。为了提升计算机对大规模数据的运算效率,芯片企业现在最常见的做法就是基于传统芯片架构,搭载人工神经网络,从功能上模拟人脑计算的GPU、FPGA·、ASIC三种芯片,加上类脑芯片,并称为AI芯片。

类脑计算成新方向

人脑的这三大特性始终是计算机无法比拟的:一是低能耗,人脑的功率大约为20瓦,而目前计算机功耗需要几百万瓦;二是容错性,人脑时刻都在失去神经元,而计算机失去一个晶体管就会破坏整个处理器;三是无需编程,大脑在于外界交互过程中自发学习和改变,并非遵循预先设计好的算法。

中国也十分重视类脑研究,并将类脑计算作为国家战略发展的制高点。中国不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。

中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。

结语:类脑芯片或将赋予机器智能

目前,搭载神经网络引擎的芯片层出不穷,芯片巨头和初创们都在原有的冯诺依曼架构上争相利用神经网络优化芯片计算力。从目前这类AI芯片的表现上看,FPGA的灵活性较好但开发难度大,ASIC因其功耗低、开发难度适中将在终端AI芯片上具有较大优势。

类脑芯片不仅能提高计算机的计算速度、降低功耗,其在国防领域也将发挥重要作用,对研发高度自主性的智能机器人以及提高其他设备的智能水平也有重要意义。就让机器实现智能这一人工智能终极理想来说,从人类自身结构出发是一可选思路,但并非仅此一种。

从现在各大公司的研究成果来看,像IBM TrueNorth这样的类脑芯片运行的效率还不及以上提到的在传统架构上运用神经网络的芯片。但冯诺依曼瓶颈是客观存在的事实,随着运算数据量的增加,这一短板将越来越明显。

而人脑也的确凭借低功耗、高运算力成为计算机芯片研发学习的方向,但短期内类脑芯片还难以表现出其优势,或许随着对人脑研究的深入,会有人像牛顿一样被“上帝的苹果”砸中,从而拥有敲开具有高速运算力的类脑芯片领域的敲门砖。或许现在的传统架构加神经网络芯片就是像牛顿的万有引力定律一样适用于数据量较大的运算,而类脑芯片像爱因斯坦的相对论一样在实现机器智能上更具潜力。


关键字:人工智能  产业前沿  处理器与DSP 引用地址:解析目前六款类脑芯片,如何颠覆传统架构

上一篇:专访发现史诗级芯片漏洞的22岁天才:这是场意外
下一篇:Thinker 1可重构混合神经网络计算芯片的诞生

推荐阅读最新更新时间:2024-03-16 11:28

AI平台点燃 英特尔、NVIDIA、高通、AMD火力全开
全球科技大厂纷揭露人工智能(AI)最新布局蓝图,AI领域俨然成为新世代主流战场,近期芯片业者英特尔(Intel)、NVIDIA、高通(Qualcomm)与AMD(AMD)持续扩大AI平台投入力道,2017年势将掀起激战,并酝酿新一波洗牌潮。 近年AI相关技术与应用发展大跃进,包括微软(Microsoft)、Google、Facebook、IBM、百度、阿里巴巴等陆续释出机器学习、深度学习等AI应用进展,高通、NVIDIA与英特尔等芯片大厂亦纷纷展示平台技术整合实力,AI将成为规模更大且竞争更激烈的新世代战场。 英特尔多方强化AI平台战力 在智能手机市场苦吞败仗的英特尔,近期重新调整脚步,将旗下所有AI业务整合到新成立的
[物联网]
遥感邂逅AI的价值需求,新机遇也是新挑战
作为一种可以渗入千行万业的通用技术,AI经常可以让一门听上去“古老”的技术,瞬间焕发新的想象力。比如遥感,这个中国人并不陌生的技术词汇。 所谓遥感,一般指运用遥感器对物体的电磁波的辐射、反射特性进行探测。通过远离目标和非接触的方式,来判断和识别探测目标。这种技术一般应用于空中平台,比如卫星、航空器、无人机等等。 在100年前,现代地理学和测量学当中,已经诞生了遥感科学的前身。1972年,美国宇航局发射了搭载有遥感器的地球资源技术卫星ERTS-1,宣告了现代遥感技术正式到来。 这门在数十年间帮助人类认识地球的技术,今天正在与AI技术展开一场充满想象力的邂逅。但是二者的结合并不那么容易。端侧AI算力的突破,算法模型的深度学
[嵌入式]
遥感邂逅<font color='red'>AI</font>的价值<font color='red'>与</font>需求,新机遇也是新挑战
五大关键词读懂2015年人工智能的那些事
    在即将过去的2015年里,几乎每天都能听到关于“人工智能”的新消息,或是大公司新产品发布、或是创业公司拿到巨资、或是研究机构探讨人工智能如何人类相处等等。Bloomblog将2015年评价为人工智能的里程碑一年,因为“计算机变得更加聪明,它们的学习也达到了前所未有的速度。”   小编梳理出关于人工智能的五个关键词:开源、创业、巨头买买买、产品、争议。站在2015年的年末,和大家一起回首人工智能领域这一年的发展与进步。   开源与话语权之争   正如谷歌董事长施密特所言:“机器学习并不是魔术,它只是个工具而已。”过去一年,我们看到越来越多公司将自己的机器学习技术作为工具开放给全球开发者使用。   一方面,人工智能的
[安防电子]
大数据重塑新芯片架构 AI处理器寻求突破
  业界共同的愿景是开发一款人工智能( AI )处理器,它可为神经网络处理训练与推理等任务,甚至可能出现一些新的自我学习技术;这种 AI 处理器还必须能透过大规模的平行化方式提供强大的性能,同时具有高功效且易于编程...下面就随网络通信小编一起来了解一下相关内容吧。   由亚马逊(Amazon)、Google和Facebook等网络巨擘所收集的大量数据集,正推动处理这些巨量数据的新 芯片 复兴。 预计在六月底的年度计算机架构大会上将亮相其中两项最新成果。   史丹佛大学(Stanford University)的研究人员将介绍一种可重配置处理器——Plasticine,它可支持比FPGA更高近100倍的每瓦特性能,同时也更易于编
[网络通信]
机器学习+医疗怎么用?看看美国最顶尖的五家医院如何做
以下内容编译自TechEmergence: 我们希望通过本文解答商业领袖关注的一些问题: 医院目前正在使用哪些类型的机器学习应用?麻省总医院和约翰霍普金斯医院等顶尖医院正在使用哪些技术? 他们的创新措施有没有人什么共同趋势?这些趋势如何影响医疗的未来? 顶尖医院对机器学习和新兴的科技创新投入了多少资金? 文本希望简明扼要地展现美国5大顶尖医院在部署机器学习方面的采取的措施。这5大医院来自2016至2017年度《美国新闻与世界报道》评选的《最佳医院荣誉榜单》的前五名。 在对每家医院的具体应用情况展开介绍前,我们会首先对共同的主题展开分析。 机器学习在医院 根据美国5大顶尖医院目前的机器学习项目,可以发现最受欢迎的医
[医疗电子]
智能手机智慧手机的区别 由AI芯片麒麟970开始
  近几年来,几乎每个月都会有一些关于人工智能( AI )如何偷走我们的工作、伤我们的心,或者直接把我们所有人都杀光的新闻标题或电影出现。但是显然现在还不到考虑这个的时候,因为从严格意义上来说,我们的手机其实都还远远谈不上智能。下面就随网络通信小编一起来了解一下相关内容吧。   智能手机与智慧手机的区别 由AI芯片麒麟970开始   从十年前乔布斯打造出的iPhone开始,智能手机才真正意义上走进人们的生活普及开来。但是有时候,人们会常常不假思索地接收某些约定俗成的东西,而没有真正用心想一想是不是真的这样。举例来说,如果智能手机真的智能,那么为什么许多老人却不会用?如果智能手机真的智能为什么每个人有着千篇一律的操作界面?  
[网络通信]
专访英特尔戴金权:助力中国AI大模型高效、可持续发展
虽然AI并非什么新技术,多年来,企业一直在人工智能(AI)方面进行大量投资,但随着GPT-3.5和GPT-4相继出现,属于AI的新时代正在到来。历经将近一年的“百模大战”,行业正在走向下半场。 IDC最新预测显示,到2027年,全球AI解决方案支出将增长到5000亿美元以上。同时,大多数企业也将经历技术投资权重向人工智能实施和人工智能增强产品/服务应用显著转移。这意味着,AI技术即将迎来新一轮增长,而它也将重塑千行百业。 英特尔作为全球领先的芯片及基础设施解决方案公司,无疑是产业的风向标,也是行业的AI先锋。这家公司正在不断探索在硬件中加入AI能力,并通过开放、多架构的软件解决方案,推动AI应用的普及。 2023英特尔
[半导体设计/制造]
第一批被AI累死的人
一双眼睛的局部细节图出现在电脑屏幕上,小慧对着放大的眼睛,一步步地做好标记点。 一眼望过去,一排排的电脑屏幕上,都是类似的画面。也许是因为窗帘的遮光效果太好,略显昏暗的办公环境加上电脑屏幕上被放大的各种物体细节,颇为惊悚。 在某人工智能研究院看到这一幕,不觉惊叹即使是头部的AI创业公司,最关键的一环依然是从数据标注员开始的。 而这是一群被称作第一批被AI累死的人。 AI的老师:画框的这些人 伴随着AI兴起的最关键的技术莫过于深度学习,作为深度学习的基础,神经网络是一种以输入为导向的算法,其结果的准确性取决于接近“无穷”量级的数据。 所以摒除那些复杂的中间环节,深度学习最关键的就是需要大量的数据训练,这也是为什么在互联网大数据的
[机器人]
小广播
添点儿料...
无论热点新闻、行业分析、技术干货……
最新安防电子文章
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 视频监控 智能卡 防盗报警 智能管理 处理器 传感器 其他技术 综合资讯 安防论坛

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved