神经网络完成芯片设计仅需几小时

2021-06-10来源: 科技日报关键字:神经网络

image.png


科技日报北京6月9日电 (记者张梦然)英国《自然》杂志9日发表一项人工智能突破性成就,美国科学家团队报告机器学习工具已可以极大地加速计算机芯片设计。研究显示,该方法能给出可行的芯片设计,且芯片性能不亚于人类工程师的设计,而整个设计过程只要几个小时,而不是几个月,这为今后的每一代计算机芯片设计节省数千小时的人力。这种方法已经被谷歌用来设计下一代人工智能计算机系统。

  

不同元件在计算机芯片上的布局,是决定芯片整体性能的关键。设计计算机芯片的物理布局既复杂又耗时,难度非常大,需要专业人类设计工程师付出大量工作。而尽管已为此进行多年的尝试,芯片布局规划一直都无法实现自动化,需要设计工程师们花费数月的努力才能生产可供规模制造的布局。

  

在位于美国加州的谷歌研究院内,人工智能专家阿泽利亚·米尔侯赛尼、安娜·戈迪耶及其同事最新的研究表明,机器学习工具已经可以用来加速这一名为“布局规划”的流程。

  

研究团队将芯片布局规划设计成一个强化学习问题,并开发了一种能给出可行芯片设计的神经网络。他们训练了一个强化学习智能体,让这个智能体把布局规划看作一种棋盘游戏:元件是“棋子”,放置元件的画布是“棋盘”,“获胜结果”则是根据一系列评估指标评出的最优性能(评估基于一个包含1万例芯片布局的参考数据集)。


研究人员指出,这种方法能在6小时内设计出与人类专家不相上下或是更好的可行芯片布局,有望为今后的每一代计算机芯片设计节省数千小时的人力。

  

美国加州大学圣迭戈分校科学家安德鲁·康在一篇同时发表的新闻与观点文章中写道,“开发出比当前方法更好、更快、更省钱的自动化芯片设计方法,有助于延续芯片技术的‘摩尔定律’”。这里的摩尔定律,是指每块芯片的元件数量大约每两年会翻一番。

  

安德鲁·康同时表示,在这一研究中,团队展示的布局规划方案已经被用来设计谷歌的下一代AI处理器,这也显示出其设计质量可用于大规模生产。

  

总编辑圈点

  

在不到6小时的时间里,一个深度学习强化方法,可以自动生成芯片设计的所有关键指标,包括功耗、性能和芯片面积,且给出的布局图都优于或可与人类设计的芯片布局图相比肩。这无疑是人工智能助力人类实现更好、更快、更强目标的范例。有意思的是,这个人工智能现在又被拿去设计下一代人工智能,这让我们看到一种共生关系——更强大的人工智能设计硬件,正在推动人工智能的进步。


关键字:神经网络 编辑:王兆楠 引用地址:http://news.eeworld.com.cn/manufacture/ic538185.html

上一篇:联华电子5月份营收6.2亿美元创下新高
下一篇:彭博社:拜登的半导体目标很简单

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

深度学习过程的四个学习阶段
 理解经典机器学习技术的关键概念 网络DNN、CNN和RNN数据处理在入门级使用的数据集很小,可以放入主内存中。只需几行代码即可应用此类操作。在此阶段数据包括Audio、Image、Time-series和Text等类型。 经典机器学习在深入研究深度学习之前,学习基本机器学习技术是一个不错的选择,其包括回归、聚类、SVM和树模型。 网络掌握常见的网络层,以及相应的神经网络;GAN、AE、VAE、DNN、CNN、RNN 等等。在入门阶段,可以优先掌握DNN、CNN和RNN。 理论没有神经网络就没有深度学习,没有(数学)理论就没有神经网络。可以通过了解数学符号来开始学习,可以从矩阵、线性代数
发表于 2021-06-08
深度学习过程的四个学习阶段
特斯拉Cybertruck新用户界面专利曝光,续航里程将超600英里
卷积神经网络生成的图像来进行人员识别。 车辆系统使用包括深度学习的技术,存储可用于识别乘员面部的信息。例如,使用车外摄像头拍摄乘员面部,然后将人脸编码到模型此前学习过的人脸空间中。如果乘员调整了后视镜、座位和其他偏好,这些信息会存储在系统中,系统会将乘员与偏好联系起来,当乘员进入车辆时,就会根据存储信息进行调整。 面部识别——特斯拉注重隐私与安全尽管对于部分人士而言,面部识别可能很可怕,或者会侵犯隐私,但特斯拉在保护隐私方面非常谨慎。专利文件指出,在任何使用面部识别的情况下,这些信息都是可选择的,意味着驾驶员可以选择是否使用这项功能。此外,这些信息会存储在车辆中,同时也会加密。分享该项专利的推特用户
发表于 2021-06-01
特斯拉Cybertruck新用户界面专利曝光,续航里程将超600英里
赛灵思神经网络加速库 实现FPGA的高效深度学习运算
不久前,AMD和FPGA大厂赛灵思的股东以压倒性多数批准AMD以350亿美元收购赛灵思,这则消息引起了无数“电子人”的关注,要知道,这将是目前芯片行业最大规模的交易之一,上一回还要追溯到英伟达收购ARM。在电子行业,赛灵思的FPGA芯片一直被行业所推崇,而随着机器学习、深度学习的兴起,也有许多研究者开始将这些智能算法应用在FPGA芯片上。机器学习是使计算系统无需明确编程即可采取行动的科学,传统机器学习包括各种聚类和分类技术,包括K-means聚类、线性和逻辑回归、随机梯度下降、关联规则学习等。而深度学习则是机器学习中较为前沿的内容,通常依赖于人工神经网络来实现。人工神经网络(CNN)非常适合处理图像或视频数据,其衍生以及变体网络
发表于 2021-05-10
赛灵思<font color='red'>神经网络</font>加速库 实现FPGA的高效深度学习运算
研究人员开发新型人工神经元设备 有望减少自动驾驶所需计算能力和硬件
据外媒报道,加州大学圣地亚哥分校(University of California San Diego)研究人员开发了新型人工神经元设备,有望使训练神经网络执行任务(如图像识别或自动驾驶汽车导航等)所需的计算能力和硬件更少。与现有基于CMOS的硬件相比,该设备运行神经网络计算所使用的能量和空间要少100到1000倍。(图片来源:https://scitechdaily.com/)神经网络是一系列相互连接的人工神经元层,其中一层的输出为另一层提供输入。生成输入通过应用称作非线性激活函数的数学计算来完成。这是运行神经网络的关键部分,但是由于需要在两个独立的单元(内存和外部处理器)之间来回传输数据,应用这一功能需要大量的计算能力和电路
发表于 2021-05-08
研究人员开发新型人工<font color='red'>神经</font>元设备 有望减少自动驾驶所需计算能力和硬件
芯原查凯南:神经网络技术演进,芯原将助构建开源ML系统
芯原机器学习软件和神经网络处理器产品副总裁 查凯南在Khronos·芯原技术研讨会上对芯原神经网络处理器进行了介绍。查凯南表示,在芯原所有IP技术中,NPU起到了串联的作用,芯原对智能IP市场抱有很大期望。神经网络技术正不断发展和演进,在计算机视觉、超分辨率像素处理以及音频和语音处理方面有着大量而全面的应用。有40多家企业使用芯原NPU IP技术,超60多款产品已量产商用。芯原的神经处理单元IP VIP9000是一款高度可扩展、可编程的计算机视觉和人工智能处理器。VIP9000采用Vivante最新的VIP V8 NPU架构。VIP V8架构提高了数据分配的灵活性和处理核心的可配置性,可适应现代神经网络(例如1x1、Nx1、1xN
发表于 2021-04-24
小广播
换一换 更多 相关热搜器件

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 市场动态 半导体生产 材料技术 封装测试 工艺设备 光伏产业 平板显示 电子设计 电子制造 视频教程

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2021 EEWORLD.com.cn, Inc. All rights reserved