人工智能芯片杀出一匹黑马:Kneron

发布者:EEWorld资讯最新更新时间:2020-09-10 来源: EEWORLD关键字:Kneron  AI  NPU 手机看文章 扫描二维码
随时随地手机看文章

本文我们将评估Kneron的NPU是如何达到谷歌和英特尔的同类芯片。

 

随着边缘计算越来越受欢迎,许多大公司都致力于开发人工智能工作负载专用芯片。值得注意的是,谷歌和英特尔等大品牌分别凭借Coral的Edge TPU和Movidius Myriad X VPU在市场上站稳了脚跟。

 

Edge computing visualized

 

现在,一个新玩家杀进了这个领域,并声称要与该行业的一些大公司竞争。总部位于加州的初创公司Kneron最近发布了KL720 AI SoC,他们称该SoC在速度、能效和成本方面优于市场上的任何其他SoC。为了证明这是否言过其实,我们着手对这款芯片与谷歌和英特尔的设备进行了比较。

 

边缘计算Coral Edge TPU芯片

 

Coral是谷歌开发边缘计算平台的一个鲜为人知的项目。用该公司自己的话来说,“Coral是一个用于构建具有快速神经网络推理功能的智能设备的软硬件平台。”

 

Coral的设备的核心是Edge TPU(张量处理单元)协处理器是 Google 专门为在边缘运行 AI 而打造的 ASIC,它体型小、能耗低,但性能出色,让您可以在边缘部署高精度 AI。ASIC是为最先进的神经网络设计的,速度快,功耗低,Edge TPU 可实现高品质 AI 在边缘的广泛部署。

 

Edge TPU 不仅仅是一种硬件解决方案,它将定制硬件、开源软件和最先进的 AI 算法结合在一起,为边缘提供优质、易部署的 AI 解决方案。

 

TPU以2瓦的成本提供了4瓦的最大速度,使其功率效率为2瓦。在功能方面,Edge TPU能够执行深度前馈神经网络(DFF),如卷积神经网络(CNN),这使得它对于各种基于设备视觉的机器学习应用程序非常有用。

 

这个芯片唯一头大的地方是它的可访问性。谷歌不会将这些芯片卖给设计师;相反,它需要通过Coral的加速器模块集成。这是一个表面安装模块(10毫米x 15毫米),包括Edge TPU和所有需要的电源管理与一个PCIe Gen 2和USB 2.0接口。因此,虽然这可能提供了集成的便利,但它使设计者无法使用Edge TPU作为独立设备来实现他们独特的设计。

 

Edge TPU 是对 CPU、GPU、FPGA 以及其他在边缘运行 AI 的 ASIC 解决方案的补充

 

 

英特尔Movidius Myriad X VPU

 

在Intel的阵营中,我们将着眼于Movidius Myriad X虚拟处理单元 (VPU)。

 

根据Intel的说法,VPU的工作方式是将高度并行的可编程计算与特定工作负载的硬件加速耦合在一个独特的架构中,使数据移动最小化。通过这种方式,它们能够实现功率效率和计算性能的平衡,使设备具有深度神经网络和基于计算机视觉的应用。

 

 

它可用于无人机、智能相机、VR/AR 头盔等设备的深度学习及其他人工智能视觉应用加速。这款设备是继上个月英特尔基于 Myriad 2 处理器的 Movidius Neural Compute Stick 之后发布的又一新产品。Movidius 表示,Myriad X 将会在同样功耗条件下提供 Myriad 2 十倍的深度神经网络(DNN)性能。

 

Myriad X 的强大之处在于 Movidius 引入了被称之为神经计算引擎(Neural Compute Engine)的新结构,这是一种片上 DNN 加速器。Movidius 称,在该组件的帮助下,Myriad X 可以在 Myriad X 理论计算能力 4+ TOPS 的基础上达到超过每秒万亿次(TOPS)的 DNN 峰值吞吐量。

 

Movidius Myriad X

 

英特尔表示,这种芯片的运行速度一般可达4级,在进行深度神经网络推断时,其性能可达1级。这样做的代价是最小的TDP为1.5瓦,因此该芯片的总体性能为2.67TOPS /瓦,DNN推理性能为0.67TOPS /瓦。

 

此外,Myriad X 还有四个 C 编程 128 位 VLIW 向量处理器,来自 Myriad 2 的可配置 MIPI 通道,以及扩展的 2.5 MB 片上存储器,更多固定功能的图像/视觉加速器。像 Myriad 2 中的一样,Myriad X 的向量单元是针对计算机视觉工作负载优化的专门 SHAVE 处理器。Myriad X 同样也支持最新的 LPDDR4。在随附的发布视频中,Movidius 通过核心图展示了 Myriad X 功能。

 

Myriad X 的另一个新功能是 4K 硬件编码,支持 30 Hz (H.264/H.265) 和 60 Hz (M/JPEG) 的 4K 硬件编码。在接口方面,Myriad X 支持 USB 3.1 和 PCIe 3.0,两者对于 Myriad VPU 系列都是新功能。所有这一切都在 Myriad 2 一样的2W 的包络功率内完成,更准确地说是 1W。

 

显而易见,Myriad X 很多相同的 Myriad 2 功率的额外性能似乎来自其新的 16 FFC TSMC 进程节点。在从 28nm 平面工艺缩小到 16nm FinFET 的情况下,Movidius 能够将功率节省投入到上升时钟(upped clock)以及更多的 SHAVE 处理器、加速器、接口和内存中,所有这些都具有相似的封装尺寸。虽然英特尔确实有自己的晶圆厂,Movidius 表示在英特尔 2016 年的收购之前,Myriad X 已在良好研发之中,并且 16nm FFC 是选择的节点。16nm FFC 迭代发生于在 28nm HPM 和 HPC 成为 Myriad 2 的典型体现之后。

 

Kneron KL720 NPU

 

最后,本文的主角Kneron的KL720 AI SoC。

 

该芯片的核心是Kneron的神经处理单元(NPU)。NPU是专门为边缘设备设计的,他们介绍在小区域内可提供高计算性能和低功耗。

 

Kneron’s KL720

 

KL720的功率为每瓦0.9次,最高可达1.5次。该芯片还可以处理1080P的4K静止图像和视频,并提供面部识别的3D传感功能。

 

它还为自然语言处理应用程序提供了新的音频识别工具。

 

VPU vs. TPU vs. NPU 

 

当比较这三种人工智能芯片时,我们看到了很多相似之处和不同之处。

 

除了不同的人工智能处理器(TPU, VPU, NPU)之外,这些芯片的性能也不同。虽然英特尔的芯片可以达到4 TOPS,但它减慢了运行DNN推断。这使得谷歌的Edge TPU成为三款中最快的——具体来说,是英特尔的四倍。在推理速度方面,Kneron的芯片也超过了英特尔的芯片,最多能增加50%左右。

 

在能效方面,谷歌胜出。Edge的TPU为2 TOPS / watt,而KL720的TPU为0.9 TOPS / watt,英特尔的TPU为.67TOPS / watt。

 

然而,谷歌失败的地方在于可访问性。由于你不能购买去作为一个独立设备的Edge TPU,设计师不能将TPU单独纳入他的设计中。从这个意义上说,Kneron宣称自己是市场上最大的竞争对手似乎胸有成竹,因为它提供了比其他独立芯片(即英特尔的Movidius Myriad X)更好的能效和速度。

 

总的来说,这三款设备都是非常令人印象深刻的,它们将有助于引领边缘计算的未来。


关于耐能


耐能2015年创立于美国圣地亚哥,是终端人工智能解决方案领导厂商,提供软硬件结合的解决方案,包括终端设备专用的神经网络处理器与图像识别算法等。耐能的投资者包括维港投资、阿里巴巴创业者基金、中华开发资本、奇景光电、高通、中科创达、红杉资本子基金Cloudatlas等。截至目前,耐能获得的融资额累计超过7300万美元。







关键字:Kneron  AI  NPU 引用地址:人工智能芯片杀出一匹黑马:Kneron

上一篇:联发科天玑 1000C性能测评,略超华为麒麟 820
下一篇:小米投资之路再获一子,混合模拟IC睿芯微电子

推荐阅读最新更新时间:2024-11-06 21:12

研华许杰弘:双向奔赴,Edge AI正在与产业深度融合
智能化时代的计算模式已经发生巨变,其演变环节可以大致归纳为大型机、MAC&PC、服务器、终端+云存储、云端智能以及时下最为热门的边缘智能。如果说云计算出世前的计算模式是智能化时代的地基,那么云计算和边缘智能则是实现和落地智能化应用的重要桥梁。 面对K型经济环境和物联网应用碎片化属性的双重影响,Edge AI赋能各大产业后,是否能够挖掘更多的上升通道和增长曲线?对此,中国工控网与研华(中国)嵌入式物联网平台事业群总经理许杰弘进行了深度对话,从不同的视角呈现企业在边缘智能中的技术发展与应用,为推动全球各领域边缘人工智能落地起到借鉴和参考价值。 研华(中国)嵌入式物联网平台事业群总经理 许杰弘 Edge AI 正与新兴领域
[工业控制]
研华许杰弘:双向奔赴,Edge <font color='red'>AI</font>正在与产业深度融合
半导体成为AI崛起火车头
集微网消息,随着科技大厂投入AI(人工智能)发展,影响所及不仅是制造或商业应用,更将扩散至人类生活,如谷歌月初发部会已明示产品将导入AI应用。 研究机构TrendForce预期,AI发展将带动半导体产业优先受惠。 TrendForce指出,目前各界积极投入发展AI已对半导体产业带来正面挹注,目前包含销售以及生产方式升级等两项指针已逐步显现效益,包括OS(操作系统)、EDA(电子设计自动化)、IP(知识产权)、IC芯片等厂商, 都于今年陆续针对AI应用推出新一代架构与产品规画。 预料AI所带来的产业影响性将于明年持续扩大,带动2018年至2022年半导体年复合成长率为3.1%,AI扮演半导体主要成长动能。
[手机便携]
百度AI大会看点 2018腾讯全球合作伙伴大会召开
1、业界|人形机器人:世界顶级机器人专家相信机器人会让我们变得更好,更快乐 我们无法阻止机器人革命,其尝试可能是愚蠢的。相反,现在是时候弄清楚机器人技术如何能让我们变得更好,更快乐。这就是韩国机器人工程师兼韩国高等科学技术研究所教授Oh Jun-Ho的哲学。Hubo是一个先进的人形机器人,可以两条腿走路。它可以打开门,爬楼梯,甚至用五指打手势。在2015年之前,Hubo几乎闻所未闻 -直到它在DARPA机器人挑战赛中与来自世界各地的最佳人形机器人竞争并赢得比赛,击败了来自NASA和麻省理工学院等重量级人物的竞争。在佛罗里达州取得胜利之前,Oh教授一直在努力获得他在这些机器人项目上所需的资金和时间。他的背景是机械工程 - 机器人
[机器人]
人工智能: 把根扎牢才能实现遍地开花
AI作为第四次工业革命的核心驱动力之一,正结合新一代应用场景,深刻重构人类社会生产、分配、交换、消费等各个环节,并持续催生新技术、新产品、新产业,释放历次科技革命和产业变革所集聚的巨大能量。——闫怀志 北京理工大学计算机网络攻防对抗研究所所长   人工智能(AI)技术正润物细无声地改变着人类生活。人脸识别、刷脸支付,新冠肺炎疫情期间的人群红外测温、机器辅助诊疗,无人驾驶车辆……正如中科创星董事总经理林佳亮所言,如果说几年前的人工智能带来的是“令人惊诧的变革和冲击”,那么近两年其落地应用已经给人习以为常的感觉。   《中共中央关于制定国民经济和社会发展第十四个五年规划和二○三五年远景目标的建议》提出把科技自立自强作为国家发展
[嵌入式]
苹果公布首份人工智能报告
北京时间12月26日晚间消息,苹果公司(以下简称“苹果”)近日终于不再遮遮掩掩,发布了自己的首份人工智能研究报告。业内人士称,这对苹果将来推广自己的人工智能应用大有裨益。    苹果本月初曾表示,将发布自己的人工智能研究报告。不到一个月的时间,苹果就兑现了承诺。近日,苹果发布了第一份关于人工智能的学术论文。这篇报告阐述了一项新技术,即如何通过计算机生成图像、而非真实图像来训练一种算法的图像识别能力。    苹果在报告中称,在机器学习研究中,使用合成图像(例如,来自一款视频游戏)来训练神经网络要比使用真实图像更有效。因为合成图像数据已经被标记和注释,而真实的图像数据需要有人耗费巨大的精力去标记计算机看到的每件事物,如一棵树、一条狗或
[手机便携]
人工智能高效破解网站验证码
为了核查登录用户是否为真人,世界各地的网站广泛使用复杂的验证码技术。但一项新研究说,人工智能已可高效破解验证码,比如识别出变形的文字等。美国凡思智能公司研究人员26日在美国《科学》杂志上发表论文,提出了一个用于物体识别的计算机视觉模型——递归皮层网络,其核心是模拟人脑基于形状对物体进行辨别的机制开发出一种新型算法,让计算机同样能够基于形状来识别物体。 《科学》杂志的介绍说,这代表人工智能研究取得了“关键性进展”。 论文作者之一、凡思智能商业化总监楼兴华告诉新华社记者,传统的深度学习算法需要非常庞大的数据作支撑,而递归皮层网络强调在模型建构中引入高效的先验知识,所以只需要很少量数据就可以达到类似甚至更好的识别效果。 他说:“如果用
[安防电子]
英特尔Gaudi 2 HL 2080 AI芯片泄露
英特尔除了大家最为熟悉的CPU,其实还有很多针对不同应用的专用处理芯片。近期一批泄露文件证实了,英特尔将在今年推出具有强大功能的新一代AI处理器,称为Habana Gaudi 2平台,竞争对手是英伟达用于深度学习的数据中心产品。 英特尔在2019年收购了Habana Labs以后提供了两个系列的产品,用于AI训练的称为Gaudi,用于AI推理的则称为Goya。不过目前的文档里只有Gaudi 2平台的资料,未来将接替旧款的Gaudi平台。普通用户或许对这类型产品并不熟悉,但事实上,亚马逊AWS EC2DL1实例就使用了英特尔的Gaudi平台搭建,其每美元的性能比基于英伟达方案的实例高出40%。 Wccftech提供了第一张G
[半导体设计/制造]
英特尔Gaudi 2 HL 2080 <font color='red'>AI</font>芯片泄露
欧盟率先通过人工智能法案
欧洲议会周三通过了一项具有里程碑意义的人工智能法案,标志着欧盟在监管关键技术方面再次超越了美国,为人工智能的未来设立了明确的界限与规范。这项法案将在欧洲企业和组织如何应用人工智能技术方面发挥关键作用,全面禁止一些不可接受的应用,并对其他被视为高风险的应用设置严格的护栏。 规定人工智能应用红线 欧盟的人工智能法案禁止了一系列不可接受的应用,涵盖了多个领域。其中包括禁止使用人工智能驱动的社会评分系统,以及任何基于生物识别技术用于猜测个人种族、政治倾向或性取向的工具。此外,禁止了在学校和工作场所中使用人工智能解读个人情绪的行为,以及某些类型的预测个人犯罪可能性的自动分析。 除了禁止不可接受的应用之外,法案还为被视为高风险的人工智能应
[机器人]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件
随便看看

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved