据外媒报道,加州大学圣地亚哥分校(University of California San Diego)研究人员开发了新型人工神经元设备,有望使训练神经网络执行任务(如图像识别或自动驾驶汽车导航等)所需的计算能力和硬件更少。与现有基于CMOS的硬件相比,该设备运行神经网络计算所使用的能量和空间要少100到1000倍。
(图片来源:https://scitechdaily.com/)
神经网络是一系列相互连接的人工神经元层,其中一层的输出为另一层提供输入。生成输入通过应用称作非线性激活函数的数学计算来完成。这是运行神经网络的关键部分,但是由于需要在两个独立的单元(内存和外部处理器)之间来回传输数据,应用这一功能需要大量的计算能力和电路。
研究人员开发了一种纳米大小的设备,可以有效地执行激活功能。加州大学圣地亚哥分校教授Duygu Kuzum表示,“随着神经网络模型变得越来越大、越来越复杂,硬件中的神经网络计算变得越来越低效。我们开发了单一的纳米级人工神经元设备,能以一种非常节省空间和能量的方式在硬件上实现计算。”
该装置实现了神经网络训练中最常用的激活功能之一,称为整流线性单元。这一功能的特别之处在于,需要采用能够承受电阻逐渐变化的硬件才能工作。而研究人员设计的设备可逐渐从绝缘状态转变为导电状态,而且仅需少量热量的帮助。这一转变发生在纳米级的二氧化钒层中,被称为莫特转变(Mott transition)。在这层之上是由钛和黄金制成的纳米线加热器,当电流流经纳米线时,二氧化钒层会慢慢升温,导致从绝缘状态到导电状态的缓慢的、可控的转换。
该项研究的第一作者Sangheon Oh解释称,“此种设备架构非常有趣和创新。通常情况下,由于电流直接流过材料,莫特转变的材料会经历从绝缘到导电的突然转变。为此,我们让电流通过材料顶部的纳米线来加热材料,并诱导非常渐进的电阻变化。”
为了部署该装置,研究人员首先制造了激活(或神经元)装置阵列,以及突触装置阵列。然后,将两个阵列集成在定制的印刷电路板上,并将它们连接在一起,创建硬件版本的神经网络。研究人员利用该网络处理一张图像,即加州大学圣地亚哥分校盖泽尔图书馆的图片。该网络执行称作边缘检测的图像处理,识别图像中物体的轮廓或边缘。实验表明,集成硬件系统可以执行卷积操作,这对于许多类型的深度神经网络是必不可少的。
研究人员表示,“该项技术可以进一步扩展,以完成更复杂的任务,如自动驾驶汽车面部识别和物体识别。Kuzum表示,“目前,这只是一项概念验证。这是一个很小的系统,我们只在其中堆叠了一个突触层和一个激活层。将更多层叠加在一起,就可以为不同的应用打造更复杂的系统。”
关键字:神经网络 人工神经元 加州大学圣地亚哥分校
引用地址:
研究人员开发新型人工神经元设备 有望减少自动驾驶所需计算能力和硬件
推荐阅读最新更新时间:2024-10-28 06:15
因特尔研发的首款神经网络芯片 将于明年量产
英特尔看到 Nvidia 在 AI 领域大放异彩,也想要用手上芯片弄机器学习,用一堆 Atom 芯片组成 Xeon Phi 架构,但是看来效果没想像中好。英特尔在 AI 开发者大会上发布第一款机器学习芯片 Nervana NNP-L1000,打算用并购的技术与 Nvidia 一较高下。 对于英特尔来说积极在 AI 布局相当重要,而从先前并购取得的技术当中,就属 Nervana 的神经网络芯片,最被看好能在 AI 时代有发展潜力,而且能跟 Nvidia 竞争了。 英特尔发布的文章指出 Nervana NNP-L1000 的性能: 一般性质的距阵对距阵乘法 (General Matrix to Matrix Multi
[嵌入式]
基于神经网络预测器的传感器数据证实技术研究
摘要: 提出了基于神经网络预测器的传感器数据证实技术。首先利用神经网络对传感器输出的时间序列建立预测模型,然后利用该模型预测出传感器由值,并且该值与传感器实际输出值之数据的影响。同时,为了实现在线应用,采用了遗传算法对神经网络的优化技术。
关键词: 传感器数据证实 神经网络 遗传算法
对于高速、大容量、高性能的复杂装置和设备,在运行中如果出现故障往往会产生巨大的、甚至是灾难性的后果。对这些装置和设备运行状态的监测与诊断是解决其可靠性、安全性的关键途径之一。作为测量控制系统中诸参量的关键部件,传感器被广泛地应用到这些装置和设备中。可以说,传感器技术是现代测试和控制技术的灵
[应用]
人工智能重大进展!首个光电子神经网络问世
神经网络正席卷着计算世界。在它们的帮助下,研究人员得以推进机器学习的进程。面部识别、对象识别、自然语言处理、机器翻译……这些原本都是人类才有的技能,现在逐渐成为了机器的常规配置。 由于神经网络能够推动人工智能的发展,这给了研究人员更大的动力来创建更强大的神经网络。而这项研究的关键是创建类似神经元(neurons)的电路,即神经形态芯片(neuromorphic chip)。那么,如何使电路的速度得到显著提升? 现在,这一问题或许有了答案。据MIT报道,普林斯顿大学的Alexander Tait团队创建了全球首个光电子神经网络,并展示了其在计算上的超速度。 一直以来,光学计算都被寄予厚望 。光子的带宽要比电子高,因
[安防电子]
Imagination 神经网络加速器助力展锐其新一代5G智能手机平台
Imagination Series3NX神经网络加速器助力展锐打造其新一代5G智能手机平台 优异的PPA特性和可扩展性支持SoC制造商实现领先AI功能 英国伦敦和中国上海,2021年12月20日–Imagination Technologies宣布:领先的无晶圆厂半导体公司展锐(UNISOC)已在其发布的5G业务新品牌——唐古拉系列中T770 和 T760芯片中采用了Imagination的PowerVR Series3NX神经网络加速器(NNA)半导体知识产权(IP)。此次合作是双方在人工智能(AI)、图形处理等领域多年合作的良好延续。Series3NX NNA将凭借优异的PPA(性能、功耗、面积)特性助力唐古拉T77
[手机便携]
特斯拉又要创造一项新的纪录:正式推出自研超级计算机群
马斯克即将又要创造一项新的纪录,特斯拉的‘Dojo’即将取代日本的‘富岳’,成为全球最快的超级计算机。 作为一家汽车生产商、自动驾驶公司以及电池及储能公司,特斯拉昨天正式宣布要与Intel、AMD以及NIVIDIA厮杀:正式推出了自研的超级计算机群。 这套超算平台将要用于特斯拉自动驾驶神经网络的训练。 显然,网友们对特斯拉用这个超算来训练自动驾驶这件事充满了‘疑惑’。 在CVPR自动驾驶工作坊的演讲中,特斯拉的AI带头人,高级工程师Karpathy介绍了特斯拉超级计算机的基本情况。 这台计算机群采用了5760个算力为321TFLOPS的英伟达A100显卡,组成了720个节点,总算力突破了1.8EFLOPS
[嵌入式]
连源代码都贡献出来了,看来Facebook真的要把机器学习搞大
正在美国纽约举行的国际机器大会(ICML)上,我们很难忽略 Facebook 研究科学家们的身影——他们呈现三篇论文、主导四场研讨会、并主讲两场教程。其中包括 FB 研究科学家 Ronan Collobert、Armand Joulin 和 Laurens van der Maaten合作的论文《 Torch : 机器学习 研究的开源平台》。
Torch 是进行深度机器学习研究的主要框架之一,不过研究人员必须重复实验逻辑,Facebook 推出的 Torchnet 由于鼓励模块化编程和代码重用,未来可以推动机器视觉、自然语言处理和语音处理等多个机器学习领域的发展,并且,整个研究社区都能通过插件参与贡献。
[嵌入式]
英特尔、Facebook 携手,业界首款神经网络处理器年底出货
英特尔(Intel Corporation)执行长 Brian Krzanich 17 日透过官网新闻室发布社论宣布,英特尔开发的业界首款神经网路处理器(NNP)“Nervana”将于今年底以前出货,他并表示,英特尔在推出这项新人工智能(AI)硬体的同时,很高兴能与 Facebook 密切合作。 Krzanich 指出,英特尔 Nervana NNP 将为无数产业带来革命性 AI 运算效能。例如,AI 能化不可能为可能,推进癌症、帕金森病及其他脑部疾病的尖端研究;社群服务商将可透过 AI 为客户提供更为个人化的体验;Nervana NNP 所提供的加速学习功能将可让自驾车尽早实现上路愿景。 Krzanich 表示,英特尔有
[半导体设计/制造]
干掉高速摄像头!神经网络生成极慢视频,突破人类肉眼极限
英伟达团队CVPR-18论文Super SloMo使用深度学习,能将任意视频变为“高清慢速播放”模式,从此不再错过任何细节。今天有人开源了PyTorch实现,赶紧来试试吧! 总有那么一些细节,你瞪大双眼拼了命想看清却依然奈不了何,比如下面这个: 跟得上球吗?要看清男子羽毛球比赛的细节实在不容易 有时候想盯住飞来飞去的羽毛球,非常吃力,这就是人类肉眼的极限。 你或许会说,好解决啊,用慢速回放功能就行了。 确实可以回放,但 慢速回放的前提,是摄像机一开始就捕捉到了这些细节 。如今,一些大型体育赛事已经用上了工业高速摄像头,为的就是在裁判的裁决引发争议时,可以用慢镜头回放来判定结果。 但是,没有专业的高速摄像头怎么办? 像我们用智能
[家用电子]