深入了解汽车系统级芯片SoC连载之九:详解GPGPU与人工智能

发布者:atech123最新更新时间:2022-05-18 来源: 佐思产研关键字:汽车SoC  GPGPU  人工智能 手机看文章 扫描二维码
随时随地手机看文章

GPGPU即通用计算GPU,实际不是通用计算,而是深度学习计算或者说AI人工智能计算,这种计算深入到最底层就是矩阵之间的乘积累加。GPGPU基本上被英伟达垄断,英伟达之所以能垄断这个市场,并在无人驾驶领域大放异彩,主要是靠2005年开发的CUDA。

 

对于GPGPU即通用计算型GPU,软件栈是其生态系统得以扩展的核心。GPGPU在软件栈上主要有两个特点:一是掩盖硬件细节,高度透明,让硬件抽象为一个软件系统,让程序员感觉不到硬件;二是编程模型更友好,人人都能上手。这会产生一个问题,抽象掩藏掉的硬件细节越多,编程模型对用户越友好,那么它会越难充分发挥硬件的全部潜力。因此GPGPU的抽象是分层次的:越靠近用户的层次越易用,同时该层次的性能或者灵活性会越差。这样特定应用领域的用户,如果重心在开发效率,可以选择高层次的编程模型;而需要充分发挥GPGPU性能潜力的用户可以选择低层次的编程模型。这也正是我们把GPGPU的编程模型称为‘软件栈’的原因。

 

英伟达的GPGPU帝国其核心不是其GPU架构,而是5层软件栈打造的无可匹敌的生态系统,想要打破英伟达的垄断必须也打造类似的生态系统,这难比登天,做硬件容易,GPGPU的IP唾手可得,舍得砸钱有办法在台积电那里拿到最先进的产能,堆核心面积可以轻松做出来比肩英伟达的高性能GPU,但是生态体系没有15年时间是做不起来的。

 

英伟达的AI软件栈自底向上至少可以分成5层:


  • SASS是硬件实际执行的指令集,类似CPU的汇编,处在最底层;


  • PTX是虚拟指令集,为不同代的NVIDIA GPGPU提供了一个统一的编程接口,处在倒数第二层;


  • CUDA是用户在编写高性能GPGPU程序时主要的编程模型,处在倒数第三层,当然这三层也可以理解为广义的CUDA;


  • cuBLAS,cuDNN, cuFFT, CUTLASS等运算库勉强算第四层,让用户可以通过调用NVIDIA针对自家GPGPU高度定制的算子库,不需要花费太多精力进行性能调优就可以发挥英伟达GPGPU的最强性能,所有主流深度学习框架(Framework)都集成了这些算子库中的最少一个算子(cuDNN基本都有);


  • TensorRT、Triton和Megastron则是英伟达针对特定AI应用场景深度定制,让AI类用户开箱即用的软件平台。

 

人工智能的运算流程通常是用户用CUDA编译代码,编译出架构的PTX指令,再由PTX指令转化为底层的SASS指令,英伟达开放了PTX指令接口,程序员可以使用ASM写PTX的内嵌汇编,SASS没有开放,也不会开放,那是英伟达的核心,SASS应该是能和底层二进制或十六进制的计算机指令一一对应的指令。


CUDA

 

CUDA是我们接触最多的,CUDA已形成了事实上的垄断,AI或者说人工智能深度学习等高密度计算都离不开CUDA,反过来CUDA也让英伟达的GPGPU热卖,形成滚雪球的良性循环,让英伟达的GPGPU也形成了垄断。要想做GPGPU硬件,就必须兼容CUDA,但这就意味着性能没有优化,这样做出来的模型,在英伟达的设备上自然会运行的比较好。

 

没有CUDA之前,GPU只能按照图形渲染管线和API来执行操作。CUDA(Compute Unified Device Architecture),它包含了CUDA指令集架构(ISA)以及GPU内部的并行计算引擎。CUDA架起了一座普通程序员与GPU硬件间的桥梁,一方面让GPU可以从事通用计算而不仅仅是图形渲染,且能最大限度发挥GPU多核心的物理优势,另一方面GPU对程序员来说完全透明,程序员可以像用CPU那样为其开发程序。开发人员可以使用最常见的计算机语言即C语言来为CUDA架构编写程序,所编写出的程序可以在支持CUDA的处理器得以最大化发挥其性能。CUDA3.0 开始支持C++和FORTRAN。而这些语言一开始都是为CPU而设计的。

 

经常有人拿OpenCL与CUDA对比,其实CUDA和OpenCL的关系并不是冲突关系,而是包容关系。CUDA是一个并行计算的架构,包含有一个指令集架构和相应的硬件引擎。OpenCL是一个并行计算的应用程序编程接口(API),CUDA高于OpenCL,它是支持OpenCL的,在NVIDIA CUDA架构上OpenCL是除了C for CUDA外新增的一个CUDA程序开发途径。CUDA C语言与OpenCL的定位不同,或者说是使用人群不同。CUDA C是一种高级语言,那些对硬件了解不多的非专业人士也能轻松上手;而OpenCL则是针对硬件的应用程序开发接口,它能给程序员更多对硬件的控制权,相应的上手及开发会比较难一些。那些在X86 CPU平台使用C语言的人员,会很容易接受基于CUDA GPU平台的C语言;而习惯于使用ARM平台的程序员,看到OpenCL会更加亲切一些,在其基础上开发与图形、视频有关的计算程序会非常容易。基于C语言的CUDA被包装成一种容易编写的代码,因此即使是不熟悉芯片构造的科研人员,也可能利用CUDA工具编写出实用的程序。而OpenCL虽然句法上与CUDA接近,但是它更加强调底层操作,因此难度较高,但正因为如此,OpenCL才能跨平台运行。CUDA最初就是为科研人员开发的。

 

OpenCL开发的过程中,技术平台均为NVIDIA的GPU,实际上OpenCL是基于NVIDIA GPU的平台进行开发的,当然它是可以跨平台的。另外OpenCL的第一次演示也是运行在NVIDIA的GPU上。从本质上来说,OpenCL就是一个相当于Windows平台中DirectX那样的技术。或者说,它是一个连接硬件和软件的API接口。在这一点上,它与OpenGL类似,不过OpenCL的涉及范围要比OpenGL大得多,它不仅是用来作用于3D图形。如果用一句话描述,OpenCL的作用就是通过调用处理器和GPU的计算资源,释放硬件潜力,让程序运行得更快更好。顺便说一下,OpenCL是苹果在2008年牵头发起的。

 

CUDA虽然是英伟达独家开发,但其源头却是微软,2005年底,微软推出DirectX 10,DirectX 10最大的革新就是统一渲染架构(Unified Shader Architecture)。各类图形硬件和API均采用分离渲染架构,即顶点渲染和像素渲染各自独立进行,前者的任务是构建出含三维坐标信息的多边形顶点,后者则是将这些顶点从三维转换为二维。这为实现GPU通用计算奠定了基础。第一代CUDA在2006年底发布的首款DX10规范的G80架构上实现,到了GT 200时代,GTX 200系列显卡实现了硬件级双精度算术(GT200核心中拥有30个64位浮点单元)。

 

英伟达的显卡架构都有对应的CUDA版本,比如3.x称为Kepler,包括3.0、3.5、3.7等,5.x称为Maxwell,包括5.0、5.2、5.3等,6.x是Pascal,包括6.0、6.1、6.2等。7.0是Volta,7.5是Turing。目前最常见的Ampere架构卡A100是8.0,目前Ampere架构最高到11.6版,最新的Hopper架构应该是12.x版。随着英伟达在CPU领域的持续发力,未来CUDA可能会有比较大的变化。


CUDA架构

 

图片来源:互联网

 

CUDA主要提供了4个重要的东西:CUDA C和对应的COMPILER,CUDA库、CUDA RUNTIME和CUDA DRIVER。CUDA C其实就是C的变种,它加入4大特性:1)可以定义程序的哪部分运行在GPU或CPU上;2)可以定义变量位于GPU的存储类型;3)利用KERNEL、BLOCK、GRID来定义最原始的并行计算;4)State变量。CUDA库包含了很多有用的数学应用,如cuFFT,CUDA RUNTIME其实就是个JIT编译器,动态地将PTX中间代码编译成符合实际平台的硬件代码,并做特定优化。Driver便是相应API直接与GPU打交道的接口了。

 

在CUDA中程序执行区域分为两部分,CPU和GPU——HOST和DEVICE,任务组织和发送是在CPU里完成的,但并行计算是在GPU里完成,每当CPU遇到需要并行计算的任务,则将要做的运算组织成kernel,即数据并行处理函数(核函数),然后发给GPU去执行,在GPU上执行的程序,一个Kernel对应一个Grid网格,网格是一维或多维线程块(block),CUDA在把任务正式提交给GPU前,会对kernel做些处理,让kernel符合GPU体系架构,把GPU想成拥有上百个核的CPU,kernel当成一个要创建为线程的函数,所以CUDA现在要用kernel创建出上百个thread,然后将这些thread送到GPU中的各个核上去运行,为了更好利用GPU资源,提高并行度,CUDA还要将这些thread加以优化组织,将能利用共有资源的线程组织到一个thread block中,同一thread block中的thread可以共享数据,每个thread block最高可拥有512个线程。拥有同样维度同样kernel的thread block被组织成一个grid,而CUDA处理任务的最大单元便是grid了。


人工智能、机器学习、深度学习基础

 

所谓人工智能实际可以等同于机器学习,人是能够提出问题发现问题的,而机器永远做不到这一点,从这个角度讲,人工智能永远都无法实现,因为人类一切科学的源头,智能的源头就是人类有好奇心,能够发现问题,而机器只能解决问题。
机器学习中最常见的是深度学习,深度学习可以按照训练方式分为六大类,分别是:

 

  • 无监督学习(unsupervised learning):已知数据没有任何标注,按照一定的偏好,训练一个智能算法,将所有的数据映射到多个不同标签的过程。

 

  • 强化学习(reinforcement learning):智能算法在没有人为指导的情况下,通过不断的试错来提升任务性能的过程。“试错”的意思是还是有一个衡量标准,用棋类游戏举例,我们并不知道棋手下一步棋是对是错,不知道哪步棋是制胜的关键,但是我们知道结果是输还是赢,如果算法这样走最后的结果是胜利,那么算法就学习记忆,如果按照那样走最后输了,那么算法就学习以后不这样走。

 

  • 弱监督学习(weakly supervised learning):已知数据和其一一对应的弱标签,训练一个智能算法,将输入数据映射到一组更强的标签的过程。标签的强弱指的是标签蕴含的信息量的多少,比如相对于分割的标签来说,分类的标签就是弱标签。

 

  • 半监督学习(semi supervised learning) :已知数据和部分数据一一对应的标签,有一部分数据的标签未知,训练一个智能算法,学习已知标签和未知标签的数据,将输入数据映射到标签的过程。半监督通常是一个数据的标注非常困难,比如说医院的检查结果,医生也需要一段时间来判断健康与否,可能只有几组数据知道是健康还是非健康。

     

  • 多示例学习(multiple instance learning) :已知包含多个数据的数据包和数据包的标签,训练智能算法,将数据包映射到标签的过程,在有的问题中也同时给出包内每个数据的标签。多事例学习引入了数据包的概念。

 

监督学习(supervised learning):已知数据和其一一对应的标注(标签),也就是说训练数据集需要全部标注。训练一个智能算法,将输入数据映射到标注的过程。监督学习是最常见的深度学习,也是ADAS自动驾驶感知领域几乎唯一的深度学习方式,就是人们口中常说的分类(Classification)问题。

 

图片来源:互联网

 

深度学习分为训练和推理两部分,训练就好比我们在学校的学习,但神经网络的训练和我们人类接受教育的过程之间存在相当大的不同。神经网络对我们人脑的生物学——神经元之间的所有互连——只有一点点拙劣的模仿。我们的大脑中的神经元可以连接到特定物理距离内任何其它神经元,而深度学习却不是这样——它分为很多不同的层(layer)、连接(connection)和数据传播(data propagation)的方向,因为多层,又有众多连接,所以称其为神经网络。

 

训练神经网络的时候,训练数据被输入到网络的第一层。然后所有的神经元,都会根据任务执行的情况,根据其正确或者错误的程度如何,分配一个权重参数(权重值)。在一个用于图像识别的网络中,第一层可能是用来寻找图像的边。第二层可能是寻找这些边所构成的形状——矩形或圆形。第三层可能是寻找特定的特征——比如闪亮的眼睛或按钮式的鼻子。每一层都会将图像传递给下一层,直到最后一层;最后的输出由该网络所产生的所有这些权重总体决定。

 

经过初步(是初步,这个是隐藏的)训练后得到全部权重模型后,我们就开始考试它,比如注入神经网络几万张含有猫的图片(每张图片都需要在猫的地方标注猫,这个过程一般是手工标注,也有自动标注,但准确度肯定不如手工),然后拿一张图片让神经网络识别图片里的是不是猫。如果答对了,这个正确会反向传播到该权重层,给予奖励就是保留,如果答错了,这个错误会回传到网络各层,让网络再猜一下,给出一个不同的论断,这个错误会反向地传播通过该网络的层,该网络也必须做出其它猜测,网络并不知道自己错在哪里,也无需知道。在每一次尝试中,它都必须考虑其它属性——在我们的例子中是「猫」的属性——并为每一层所检查的属性赋予更高或更低的权重。然后它再次做出猜测,一次又一次,无数次尝试……直到其得到正确的权重配置,从而在几乎所有的考试中都能得到正确的答案。

 

得到正确的权重配置,这是一个巨大的数据库,显然无法实际应用,特别是嵌入式应用,于是我们要对其修剪,让其瘦身。首先去掉神经网络中训练之后就不再激活的部分。这些部分已不再被需要,可以被「修剪」掉。其次是压缩,这和我们常用的图像和视频压缩类似,保留最重要的部分,如今模拟视频几乎不存在,都是压缩视频的天下,但我们并未感觉到压缩视频与原始视频有区别。压缩的理论基础是信息论(它与算法信息论密切相关)以及率失真理论,这个领域的研究工作主要是由上世纪40年代的 Claude Shannon 奠定的,实际机器学习所有的理论基础在上世纪50年代就已经全部具备,绝大部分理论基础也来自Claude Shannon 的信息论,唯一差的就是算力,是英伟达的GPU造就了深度学习时代的到来,目前的深度学习没有理论上的突破,只是应用上的扩展。经过压缩后,多个神经网络层被合为一个单一的计算。最后得到的这个就是推理Inference用模型或者说算法模型,实际我觉得叫Prediction猜测更准确。

 

图片来源:互联网

 

深度学习的关键理论是线性代数和概率论,因为深度学习的根本思想就是把任何事物转化成高维空间的向量,强大无比的神经网络,说来归齐就是无数的矩阵运算和简单的非线性变换的结合。在19世纪中期,矩阵理论就已经成熟。概率论在18世纪中期就有托马斯贝叶斯,在1900年俄罗斯的马尔科夫发表概率演算,概率论完全成熟。优化理论主要来自微积分,包括拉格朗日乘子法及其延伸的KKT,而拉格朗日是18世纪中叶的法国数学家。RNN则和非线性动力学关联甚密,其基础在20世纪初已经完备。至于GAN网络,则离不开19世纪末伟大的奥地利物理学家波尔兹曼。强化学习的理论基础是1906年俄罗斯数学家马尔科夫发表的弱大数定律(weak law of large numbers)和中心极限定理(central limit theorem),也就是马尔科夫链。

 

深度学习的理论基础已经不可能出现大的突破,因为目前人类的数学特别是非确定性数学已经走火入魔了。

 

实际深度学习就是靠蛮力计算(当然也有1X1卷积、池化等操作降低参数量和维度)代替了精妙的科学。深度学习没有数学算法那般有智慧,它知其然,不知其所以然,它只是概率预测(深度学习里最重要的置信度)。所以在目前的深度学习方法中,参数的调节方法依然是一门“艺术”,而非“科学”。深度学习方法深刻地转变了人类几乎所有学科的研究方法。以前学者们所采用的观察现象,提炼规律,数学建模,模拟解析,实验检验,修正模型的研究套路被彻底颠覆,被数据科学的方法所取代:收集数据,训练网络,实验检验,加强训练。这也使得算力需求越来越高。机械定理证明验证了命题的真伪,但是无法明确地提出新的概念和方法,实质上背离了数学的真正目的。这是一种“相关性”而非“因果性”的科学。历史上,人类积累科学知识,在初期总是得到“经验公式”,但是最终还是寻求更为深刻本质的理解。例如从炼丹术到化学、量子力学的发展历程。人类智能独特之处也在于数学推理,特别是机械定理证明,对于这一点,机器学习永远无能为力的。

 

对于深度学习推理阶段来说,分解到最底层,其运算核心就是数据矩阵与权重模型之间的乘积累加,乘积累加运算(英语:Multiply Accumulate, MAC)。这种运算的操作,是将乘法的乘积结果和累加器A的值相加,再存入累加器:

若没有使用MAC指令,上述的程序需要二个指令,但MAC指令可以使用一个指令完成。而许多运算(例如卷积运算、点积运算、矩阵运算、数字滤波器运算、乃至多项式的求值运算,基本上全部的深度学习类型都可以对应)都可以分解为数个MAC指令,因此可以提高上述运算的效率。推理阶段要求精度不高,一般是整数8位,即INT8。

 

对于训练阶段,要求比较高,常见的是FP64和FP32两种精度,近来又出现Bfloat16,Bfloat16就是截断浮点数(truncated 16-bit floating point),它是由一个float32截断前16位而成。它和IEEE定义的float16不同,主要用于取代float32来加速训练网络,同时降低梯度消失(vanishing gradient)的风险,也可以防止出现NaN这样的异常值。深层神经网络每次梯度相乘的系数如果小于1,那就是浮点数,如果层数越来越多,那这个系数会越来越大,传播到最底层可以学习到的参数就很小了,所以需要截断来防止(或降低)梯度消失。在float32和bfloat16之间进行转换时非常容易,事实上 Tensorflow也只提供了bfloat16和float32之间的转换,不过毕竟还是需要转换的。

 

英特尔的内嵌汇编格式GNU Gas添加了BFloat16支持,英特尔在2019年4月发布补丁,支持GNU编译器集合(GCC)中的BFloat16支持。和IEEE float16相比,动态范围更大(和float32一样大),但是尾数位更少(精度更低)。更大的动态范围意味着不容易下溢(上溢在实践中几乎不会发生,这里不考虑)。另一个优势是Bfloat16既可以用于训练又可以用于推断。Amazon也证明Deep Speech模型使用BFloat16的训练和推断的效果都足够好。Uint8在大部分情况下不能用于训练,只能用于推断,大多数的Uint8模型都从FP32转换而来。所以,Bfloat16可能是未来包括移动端的主流格式,尤其是需要语言相关的模型时候。当然英伟达认为Bfloat16牺牲了部分精度,对于某些场合如HPC,精度比运算效率和成本更重要。

 

一个MAC单元通常包括三部分:乘法器、加法器和累加器。

 

图片来源:互联网

 

上图为一个典型的MAC单元。计算机体系中的乘法和加法都历经了长时间的研究改进,纯粹的乘法器和加法器肯定是不会有人用。乘法器最常用的Wallace树,这是1963年C.S.Wallace提出的一种高效快速的加法树结构,被后人称为Wallace树。人工智能95%的理论工作都是在1970年前完成的,只是没有高性能计算系统,才没有在那个时代铺展开。加法器多是CSA,即进位保存加法器(Carry Save Adder,CSA)。使用进位保存加法器在执行多个数加法时具有极小的进位传播延迟,它的基本思想是将3个加数的和减少为2个加数的和,将进位c和s分别计算保存,并且每比特可以独立计算c和s,所以速度极快。这些都已经非常成熟,刚出校门的学生都可以做到。

 

除了降低精度以外,还可以结合一些数据结构转换来减少运算量,比如通过快速傅里叶变换(FFT)来减少矩阵运算中的乘法;还可以通过查表的方法来简化MAC的实现等。


关键字:汽车SoC  GPGPU  人工智能 引用地址:深入了解汽车系统级芯片SoC连载之九:详解GPGPU与人工智能

上一篇:现代汽车与SOS Lab合作开发用于自动驾驶机器人的激光雷达
下一篇:将于 Q3 季度量产 思特威推出 2 款车规级图像传感器

推荐阅读最新更新时间:2024-11-02 09:36

苹果与三星皆专注于AI自驾技术 胜负引人瞩目
三星电子(Samsung Electronics)继苹果(Apple)之后开始进行自驾车测试。三星和苹果在自驾车的技术领域也将展开竞争。   据韩国ZDNet报导,韩国国土交通部允许三星综合技术院试驾正在研发的自动驾驶车。该台采用三星技术的车辆为2011年1月韩国上市的5代Grandeur HG,而目前现代汽车(Hyundai)销售的为6代车种。   苹果获美国加州车辆管理局(DMV)自驾车试行认可后,三星紧接着也获得在韩国试行自驾车的许可。苹果获承认的自驾车为2015年款Lexus RX450h。   三星和苹果测试自驾车的地区和场所等各异。苹果在加州境内公路上示范驾驶RX450h,三星则是在韩国首尔、新葛、护法41公里一段高速
[手机便携]
AI永不止步 2018年度智能安防十大新品聚焦
2018是 安防 行业快速发展的一年,前有BAT入局 智慧城市 领域,后有华为宣布加入智能安防行业,可见安防市场前景可期。新年伊始,让我们聚焦2018年安防产业新品(排名不分先后),一同感受智能浪潮带来的震撼。 一、感知的“大脑”能力:云从科技“睿眼”系列 AI 摄像机 作为一家专注于智能感知与人工智能技术的高科技企业,云从科技也是第一个同时承担国家人工智能基础公共服务平台、人工智能应用平台和人工智能核心芯片平台项目的人工智能企业。云从科技“睿眼”系列AI摄像机内置双核NPU神经网络引擎,具备全时、全帧、全画幅的处理能力与支持多种算法并发运行,同时对人脸、人体、车辆及多维感知等多种结构化信息提取,实现了一台AI摄像机对人和车的
[安防电子]
一文读懂AI+教育的正确打开方式
成立于2006年的 启明创投 很早之前就开始涉足教育领域的投资,最早曾投过巨人教育、东方剑桥等线下培训机构,而且在投资方面比较执着,曾持续跟投过学霸君、VIPABC、iTutorGroup等教育企业。近期启明创投还投资了中文分级阅读平台考拉阅读。   2016年初,启明创投对外公布的内部晋升名单中,34岁的周凌霏成为公司最年轻的执行董事。加入启明创投后的7年时间里,她接连投中了蘑菇街、蚂蜂窝、挖财、途虎、拉勾、挂号网、musical.ly等明星项目。谈及投资方法论,周凌霏直言,“我这个人比较轴,比较坚持。”   今年教育行业一级市场掀起一波“融资”热,猿辅导、VIPKID、学霸君等在线教育公司纷纷披露大额融资。资本市场也不甘寂寞,
[嵌入式]
戴尔创始人: 人工智能时代是人加机,而非机减人
  全球电脑业巨头 戴尔 科技集团董事长兼首席执行官迈克尔 戴尔 近日在接受新华社记者采访时说,人类经济社会发展已经进入新阶段,展望 人工智能 时代,没有必要对技术发展恐慌,未来将是人“加”机器,而非机器“减”人。下面就随网络通信小编一起来了解一下相关内容吧。   近年, 人工智能 成为一个全球关注和辩论的焦点。有观点认为 人工智能 的迅速演进会导致人类的工作机会大量缩减,甚至会对人类文明造成毁灭性冲击。但 戴尔 表示,他本人对人工智能并不恐慌。他认为技术就是要推动人的潜力最大化。任何一种新技术或者新工具可以有好的用途,也可以有坏的用途。“技术发展不应成为我们害怕的理由。未来的世界一定是人与机器合作的世界。”   1984年,1
[网络通信]
针对人工智能法国设立4所研究院
据科技日报报道,法国高等教育、研究与创新部近日发布公告说,在国家人工智能发展战略的框架内,法国正式设立4所人工智能跨学科研究院,作为这一领域研究的旗舰机构。 公告说,法国国家科研署(ANR)去年宣布征集科研、培训和创新机构参与“人工智能跨学科研究院”项目的候选,巴黎、格勒诺布尔、尼斯和图卢兹4地的研究中心入选。 经过国际评审团的审查和评估,这4处研究中心正式被冠名“人工智能跨学科研究院”,每处的研究专业和主题不完全相同,涉及健康、环境、能源、交通等领域。 根据公告,4所研究院的冠名期限为4年。它们将得到来自政府、公私合作伙伴等共计2.25亿欧元的资金支持。评审团将在2年后对项目进行评估,届时投资资金可能会有所调整。
[机器人]
汽车SoC将被重塑,IP迎来新变局!
随着新能源汽车和自动驾驶汽车时代的来临,诞生了ADAS/AD、汽车互联以及V2X等新应用,这些给汽车架构带来了新的应用方向,随着架构的演变,也对汽车SoC提出了新的需求,现在业界认为,一种新的架构将重塑汽车SoC的布局。在这样的大变局下,汽车级IP又将起到怎样的作用呢? 汽车Zonal架构出现,汽车IP或将提供助力 现在汽车所需要的传感器数量和类型越来越多,包括成像、激光雷达和红外等各种传感器,去年谷歌的Waymo就使用了29个摄像头;此外这些新应用对SoC级别的功能安全要求也大幅提高;再者越来越多的人工智能开始应用于车载领域,譬如带有人工智能的BEV/HEV动力系统SoC,而新的智能传感器也增加了传感器SoC设计的难度和
[汽车电子]
<font color='red'>汽车</font><font color='red'>SoC</font>将被重塑,IP迎来新变局!
英特尔AI技术创新应用闪耀巴黎奥运会
英特尔科技助力巴黎奥运会:共创体育盛事新篇章 2024年巴黎奥运会赛事精彩纷呈,运动员、观众、体育爱好者们已经在其中感受到了诸多新体验。作为本届奥运会官方全球人工智能平台合作伙伴,英特尔更是凭借其带来的一系列人工智能创新体验,为奥运会的多个领域、多项环节注入了科技的力量。 从8K超高清直播,到3D全息视频体验,从辅助现场管理到为视障人士提供导航服务,英特尔AI技术的创新应用不仅为赛事的顺利进行和观众的深度参与提供了有力支撑,还为赛事的转播和呈现带来了突破性的进步。在与国际奥林匹克委员会的紧密合作下,由英特尔处理器赋能的人工智能技术在巴黎奥运会上大放异彩。 来自国际奥林匹克委员会主席托马斯·巴赫的致辞(完整视频请见官网)
[网络通信]
英特尔<font color='red'>AI</font>技术创新应用闪耀巴黎奥运会
开放式耳机持续增长,AI+传感器带来音频体验新的可能
今年第一季度,中国可穿戴设备市场随着消费市场复苏迎来增长。国际市场调研机构IDC的数据显示,2024年第一季度中国可穿戴设备市场出货量为3,367万台,同比增长36.2%。可穿戴设备市场中,智能手表、智能手环、耳戴设备这三大市场同时迎来增长,其中耳戴设备第一季度出货量2,075万台,同比增长30.6%,开放式耳机在其中的呈现双位数增长,尤为抢眼。 面对迅猛发展的开放式耳机,头部厂商纷纷加入,上下游产业链也逐渐成熟。在产业链上游,主芯片、传感器的迭代也推动着开放式耳机向智能化、多功能化发展。 开放式耳机中,根据技术原理的不同可以分为气传导和骨传导,气传导耳机根据形态不同,还可以分为耳夹式和耳挂式两种形态。不管是哪种形态的开放式耳机,
[嵌入式]
小广播
最新汽车电子文章
换一换 更多 相关热搜器件
随便看看

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved