云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货

发布者:EE小广播最新更新时间:2023-09-20 来源: EEWORLD作者: GACS关键字:AI芯片  AI  芯片  峰会 手机看文章 扫描二维码
随时随地手机看文章

image.png


芯东西9月18日报道,9月14日-15日,2023全球AI芯片峰会(GACS 2023)在深圳市南山区圆满举行。开幕首日现场人气十分火爆,不仅全场座无虚席,连会场大门都里三层外三层挤满了热情聆听的观众,许多观众甚至站着听完了全程。峰会全程启动云直播,全网观看人数高达153万人次。


image.png

这场高规格产业会议由智一科技旗下芯东西联合智猩猩发起主办,在南山区科技创新局的指导下以“AI大时代 逐鹿芯世界”为主题,设置七大板块,主会场包括开幕式和AI芯片架构创新、AI大算力芯片和高能效AI芯片三大专场,并公布2023中国AI芯片企业「先锋企业 TOP30」和「新锐企业 TOP10」评选结果;分会场包括首次增设的集成电路政策交流会、AI芯片分析师论坛、智算中心算力与网络高峰论坛。


本届峰会针对行业变化,围绕AI芯片的学术研究、GPGPU、ASIC、Chiplet、存算一体、智算中心等方向设置议程,邀请46+位嘉宾畅谈生成式AI与大模型算力需求、投融资机遇、架构创新、商用落地等AI芯片焦点议题。


在首日举行的主会场上,清华大学教授、中国半导体行业协会副理事长、IEEE Fellow魏少军进行主题报告《再谈人工智能芯片的发展》,来自英伟达、燧原科技、高通、亿铸科技、北极雄芯、AMD、奎芯科技、后摩智能、安谋科技、鲲云科技、珠海芯动力、芯至科技、每刻深思等12家国内外顶尖AI芯片企业及新锐企业的创始人、技术决策者及高管分别发表主题演讲,分享对AI芯片产业趋势的前沿研判与最新实践。


深圳市南⼭区科技创新局党组书记、局长曹环代表深圳市南山区科创局,对峰会的召开表示热烈祝贺,并为本届峰会致辞。他表示,2023全球AI芯片峰会(GACS 2023)定位于集成电路与高科技产业政策的宣传平台、全球AI芯片产业的集聚与交流的平台,嘉宾阵容强大,内容丰富,并专设深圳集成电路政策交流会,对推动深圳AI芯片产业高质量发展具有重要的意义。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲深圳市南⼭区科技创新局党组书记、局长曹环


智一科技联合创始人、CEO龚伦常作为主办方发表致辞,宣布智一科技深圳总部正式落户南山区西丽湖国际科教城,智东西公开课品牌正式升级为「智猩猩」,深圳总部将承担西丽湖国际科教城的智猩猩AI产业服务平台的建设,未来希望与大湾区的企业有更多的合作。智猩猩由智东西公开课全新升级而来,定位于新科技服务平台,聚焦人工智能与新兴科技,面向企业侧和用户侧提供价值服务。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲智一科技联合创始人、CEO龚伦常


通过峰会首日的AI芯片峰会嘉宾分享和观点碰撞,我们探讨了生成式AI与大模型带来的算力压力与机遇,看到了产学界如何通过越来越广泛的创新思路来绕过摩尔定律濒临极限的瓶颈,见证了存算一体、可重构计算、“算力统一场”等各路创新流派百家争鸣。通过这场干货满满的AI芯片产业盛宴,我们总结了以下五大趋势:


1、生成式AI和大模型正在主导AI应用,得算力者得天下,要求产业从芯片设计、通信、集群、软件等多方面进行优化AI芯片研发和落地,以实现更高性能、更低时延、更低成本。


2、现实算力资源和理想的算力资源存在鸿沟。一方面AI芯片产业继续追求大算力,另一方面则通过架构创新及软件定义新方式突破算力瓶颈。


3、随着芯片制程工艺触碰天花板,架构创新有望迎来“黄金十年”。比如感存算一体架构有望通过破除“存储墙”,降低海量数据搬运负担;可重构计算架构通过提高芯片利用率,用设计换制程;Chiplet则通过拆分组合实现异构集成,提高芯片性能,这些领域都已涌现出创业先行者。


4、Transformer正通过统一的大模型构建一个“大树型”的统一浓缩生态,解决过去多个“小树苗”AI生态的碎片化痛点。因此AI芯片企业可以通过硬件、软件、系统、方案多产业联动促进AI芯片商业化落地。


5、从资本市场来看,一级市场的监管政策客观上会促进AI芯片产业资源重新配置,IPO收缩或具有短期性;二级市场出现的“炒作”现象客观上为一级市场吸引了投资。


一、魏少军:大模型时代再谈AI芯片发展,大算力不是最终挑战


本届峰会的开场主题报告嘉宾,是AI芯片学术研究的代表人物——清华大学教授、中国半导体行业协会副理事长、IEEE Fellow魏少军。他引用2017年图灵奖得主John L. Hennessy和David A. Patterson的金句“现在是计算机架构的新黄金年代”,谈到步入泛在计算时代,计算无处不在,对智能计算的要求越来越紧迫。


经演变,人工智能现在分成了两大类别:类脑计算和深度学习。类脑计算,即模仿人脑的计算方式。沿着类似思路,渐有起色的是存算一体,比起传统存算分离架构,可将能效提升10倍,但这种架构目前只能模仿到人脑机制的皮毛。另一个方向是深度学习,2018年获得图灵奖的“深度学习三巨头”通过神经网络不断运算来达到计算目标,构成了深度神经网络。这促使今天的人工智能包含三要素:算法、数据、算力。算力的挑战决定了我们需要找到新的计算架构。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲清华大学教授、中国半导体行业协会副理事长、IEEE Fellow魏少军


在参加GTIC 2019全球AI芯片创新峰会时,魏少军教授曾分享过一张图,将AI芯片(AI Chip)分为三个阶段:0.5阶段是利用已有芯片来实现,1.0阶段开发面向应用的领域专用芯片,1.5阶段更强调通用性、灵活性,2.0阶段的最终结论是能不能真正实现智能。如今再看这张图,他认为中间应该加个阶段——AI Chip 1.7。


在他看来,大算力可能是当前面临的最大挑战,但不是最终挑战。1.7阶段强调的是对通用性的理解,今天AI芯片的通用性已经被异化成大算力,计算能力成为追求目标,但它只是演进过程的中间阶段。找到AI Chip 2.0阶段的完全智能化,那才是我们的终极目标。


通向这一目标,需要赋予芯片自学习和接受教育的能力,以不断提升性能和效率。他提出要寻找到一个具备软件和硬件双可编程的体系,即软件定义芯片,英伟达、英特尔及一些美国顶尖科研团队都在研究这一技术。


“中国人在这方面做的是最快的,也是最好的,我们实现了芯片架构和功能的纳秒级重启。”魏教授说,基于可重构计算架构的软件定义芯片,计算效率永远是最高的,功耗和成本都大幅下降,实现了应用与芯片的最优整合。目前,其团队已在在线编程、训练方面实现了相当一部分这样的功能。


二、ChatGPT催生算力新机遇,云边端AI芯片热战大模型


ChatGPT掀起生成式AI热潮后,大算力芯片迎来前所未有的发展机遇,新的挑战也接踵而来。


高通AI产品技术中国区负责人万卫星分享了高通对生成式AI未来发展趋势的观察:随着云端处理生成式AI的成本不断提升,未来云经济将难以支撑生成式AI的规模化发展。此外,基础模型正在向多模态扩展,模型能力越来越强大,而垂直领域模型的参数量也正在变得越来越小。未来,丰富的生成式AI模型将在终端侧运行,让大众享受到生成式AI带给生活、工作、娱乐上的变革。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲高通AI产品技术中国区负责人万卫星


NVIDIA解决方案与架构技术总监张瑞华认为:“生成式AI和大模型是人工智能目前最重要的领域,也是对算力资源需求最高的人工智能应用。由于模型的训练和推理的计算范式都发生了变革,所以现实算力资源和模型发展所需要的理想算力资源之间还有很大的差距。随着用户空间的巨量增长,还需考虑成本、实时性等问题。这是生成式AI和大模型时代所面临的计算挑战。”


接下来以大模型GPT-3 175B为例,她分享了存储空间、计算、网络通信和系统设计方面模型训练的需求和计算特点,继而提出在GPU设计、AI服务器设计和AI集群设计方面需要关注的技术热点,并分享了NVIDIA的参考架构。软件生态更是AI计算中心的灵魂,NVIDIA NeMo框架为生成式AI和大模型训练提供全生命周期的支持,TensorRT-LLM为新计算范式下的推理提供支持。张瑞华总结到:在生成式AI和大模型的时代,NVIDIA新的技术生态端到端地赋能用户的AI旅程。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲NVIDIA解决方案与架构技术总监张瑞华


芯片巨头AMD在MI Instinct GPU方面拥有大量的技术积累以及基于CDNA3的架构创新。AMD人工智能事业部高级总监王宏强谈道,AMD在单个GPU能做到上千T的浮点算力规模,通过多节点横向扩展,更是能达到每秒百亿亿次浮点计算能力(EFLOPS),并提供额外的超大内存容量及带宽,可实现700亿参数级大模型在单个GPU上的部署,并达到更高的TCO(总拥有成本)。


王宏强也特别强调了易用AI软件以及强大的开放软件生态的重要性,它是释放这些创新硬件性能的关键。AMD通过统一AI软件实现跨平台AI部署,以开放和模块化的方式构建软件解决方案,从而拥抱更高层次的抽象,并与最重要的生态系统(PyTorch, ONNX, Triton HuggingFace等)合作对接推动开箱即用的用户体验。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲AMD人工智能事业部高级总监王宏强


云端AI芯片独角兽企业燧原科技也在积极备战大模型算力需求。其创始人兼COO张亚林谈道,参数量高达数千亿的大模型,依赖分布式计算、更大的内存容量和带宽、更高算力、更实惠的成本或性价比,对AI芯片生态提出更高要求。


他打了一个形象的比喻:Transformer正通过统一的大模型,浓缩出一个“大树型”的AIGC平台生态,算力是“树根”,大模型是“树干”,行业模型库是“树枝”,应用是“树叶”。相比原来碎片化的CV、NLP中小模型,大模型的“大树型”生态的算力需求更加明确和聚焦。对此,他倡导联合生态伙伴,通过统一的大模型技术生态栈解决算力瓶颈问题。


云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货


image.png

▲燧原科技创始人兼COO张亚林


奎芯科技联合创始人兼副总裁王晓阳谈道,大模型推理的关键瓶颈在于内存带宽,目前主流的AI大算力芯片均采用HBM作为内存首选,采用HBM离不开先进封装,在散热、工艺、产能等方面均受到一定限制。据他分享,采用基于UCle接口的AI大算力芯片架构可突破HBM的互联的局限。


作为存算一体AI大算力芯片企业的代表,亿铸科技的创始人、董事长兼CEO熊大鹏分享道,AI应用进入2.0时代, 一大突出问题是大模型带来巨量数据搬运,大算力芯片的竞争核心会逐渐转向破除“存储墙”,存算一体超异构成为“换道超车”的可行路径。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲亿铸科技创始人、董事长兼CEO熊大鹏


端侧和边缘侧的芯片企业同样看到大模型的机遇与需求。面向日益增长的算力需求,在边缘和中心侧,鲲云科技用可重构数据流技术路径来解决大模型算力需求攀升的问题,通过芯片底层架构革新,将芯片利用率大幅提升,这种方法能满足架构内海量数据的计算需求,提供高性能、高性价比、低延时的实时处理。


高通万卫星谈道,与云端相比,终端侧跑大模型拥有诸多优势,包括成本、能耗、可靠性、时延和性能、隐私和安全,以及个性化等。而终端侧AI与云端AI相互配合的混合AI架构,是让生成式AI实现全球规模化扩展的关键。“目前我们能够支持参数超过10亿的模型在终端上运行,未来几个月内超过100亿参数的模型将有望在终端侧运行。”他分享说,高通不断提升端侧AI能力,从而提高终端支持大模型的参数阈值,让更多云端生成式AI用例向边缘侧和端侧迁移,这将真正释放生成式AI的潜力。


安谋科技产品总监杨磊也同意这一观点,认为大模型AI的未来将在云侧和端侧同时发展。“由于Tranformer计算结构趋于稳定,微架构厂商迎来大模型时代的创新契机。”安谋科技推出了本土自研AI处理器“周易”X2 NPU,不仅在算力、精度、灵活性等方面进行了大幅提升,还针对车载、边缘计算等应用场景进行了专门优化。


image.png

云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货▲安谋科技产品总监杨磊


端侧场景更多是中小算力场景,最在乎能效比和低成本。对此,清华电子系科技成果转化企业每刻深思的CEO邹天琦相信“模拟计算”大有可为,基于新型存储技术的模拟计算能够更有效率地发挥优势,降低Transformer大模型在端侧完成推理的能耗。


芯至科技联合创始人、首席芯片架构师兼副总裁尹文认为,AI大模型落地到推理侧的新机会与RISC-V架构创新不谋而合,RISC-V不仅可以做标量通用计算,也可以做线程级并行的AI计算。Scaler小标量+SIMT大算力的指令集/微架构融合将是未来RISC-V发力的重点,能以相对低的成本,为AI推理侧应用提供高效支持。


他提到WoW (Wafer on Wafer)混合键合在新型芯片工程技术领域有重大价值。WoW可将AI Die和Memory Die垂直堆叠,以低于HBM一个量级的成本提供数倍于HBM的带宽;对于大模型推理来说,4~6GB的Memory Die完全满足Transformer一层网络权重的存储和层内高带宽需求。


三、AI芯片繁荣与资本同频共振,新型计算技术的局限性尚存


进入生成式AI时代,资深投资人们如何看待AI芯片产业的发展走向?智一科技联合创始人、总编辑张国仁,与普华资本管理合伙人蒋纯、和利资本合伙人王馥宇、华兴资本集团华兴证券董事总经理阮孝莉进行了一场以“AI芯片的繁荣与资本的同频共振”为主题的圆桌对话。


image.png

▲圆桌对话环节,从左到右依次是智一科技联合创始人、总编辑张国仁,普华资本管理合伙人蒋纯,和利资本合伙人王馥宇,华兴资本集团华兴证券董事总经理阮孝莉


大模型参数规模激增,对算力提出巨大需求,三位投资人都谈到提高芯片效率与架构创新的问题。阮孝莉谈到资本投入已经跟不上算力需求,需要能够提高“硅效率”的架构创新。蒋纯和王馥宇均提及新型计算技术。王馥宇认为,可重构计算、存算一体、类脑神经拟态计算、光子计算、量子计算等新型计算技术的终点都会是很好的,都在结合各自应用场景的需求,一步一步解决当前工程性问题,朝前迭代与进步。


蒋纯认为,美国的“小院高墙”既是中国AI芯片企业得以崛起的机会,也是中国AI芯片企业发展中最大的威胁。中国AI芯片企业还是要争取走出“国芯国造”的路子,摆脱始终存在的仰人鼻息的风险。同时,“换道超车”也是必须考虑的路径。以存内计算为代表的“本征计算”、3D封装和堆叠技术都是非常重要的换道超车手段。


image.png

▲普华资本管理合伙人蒋纯


阮孝莉谈道,以Fabless为例,其短期会形成带有地方产业特色的形态,但遵循半导体产业特性来看,终局大概率是2-3家设计公司来服务国内市场。她认为国内在先进制程产线的突破对AI芯片有直接带动作用,创新架构依赖于全产业链的成熟,有一个过程,先进制程阶段性进展可以为大家获得一些缓冲时间。


image.png

▲华兴资本集团华兴证券董事总经理阮孝莉


从资本市场来看,一定程度上AI芯片产业、还有创新创业在一级市场和二级市场已经形成比较好的同频共振效应。蒋纯和阮孝莉的观点一致,表面来看,一级市场的AI芯片创新创业氛围与二级市场的炒作脱节。蒋纯谈道,虽然二级市场不乏寒武纪这样的优秀代表,但其就像冰山浮出海面的尖角,大量创新生态的企业都在二级市场水下,但是二级市场的炒作代表了全国上下的期望,可以起到“千金买马骨”的作用。阮孝莉补充说,二级市场泡沫并不完全是坏事,蓬勃才能吸引更多资本来关注并投资。而从新的大模型背景下未来AI赛道的增长空间来看,估值繁荣也是一定程度上具有合理性。


据王馥宇分享,和利资本不会花太多精力去关注二级市场,在做创投时,更多关注客户需求、市场空间、产品力、团队组织力和执行力、业绩和利润的成长情况等,因为满足了客户需求,才能真正创造价值。因此,和利资本做投资预判的参考点十分朴素——人的需求是什么,能不能通过技术和产品来满足人的需求,能不能提供更高的社会生产力。


image.png

▲和利资本合伙人王馥宇


四、创新架构横刀立马,换道破解性能与功耗难题


面临传统冯·诺依曼体系带来的内存墙、功耗墙、通信墙等挑战,依靠工艺技术进步来实现芯片性能、能效、成本等方面的改善变得愈发困难,架构创新已是AI芯片面临的一个不可回避的课题。围绕架构创新,国产AI芯片正从早期的百花齐放,向更深更多维的层面发展。


在峰会首日,主题演讲分享的AI芯片架构创新思路主要集中在两类,一是通过缩短计算单元与存储单元、传感器的距离,来减少芯片内不必要的数据传输所产生的时延和能耗;二是引入数据流驱动的可重构计算,将硬件资源更多集中在计算上,兼具灵活性与高能效。芯至科技则提出了一种将RISC-V开源指令架构、自研一致性总线、WoW 3DIC组合的架构创新思路。


1、感存算一体:为数据搬运减负,大幅降低功耗


在大模型时代,技术“剪刀差”越来越大:算力摩尔定律终结,但数据量越来越大,算法越来越复杂,一大核心的痛点就是“存储墙”。由于存储和计算分离架构,大模型开发的95%甚至更多时间花在数据搬运上,将导致能耗剧增和实际计算效率巨降。


亿铸科技熊大鹏认为,存算一体技术能够从根本上解决“存储墙”问题。面向数据中心、云计算、自动驾驶等场景,2023年8月,亿铸科技成功点亮存算一体AI大算力核心技术验证芯片,可基于成熟工艺制程,实现单卡突破P级算力的极强性能与极高能效比。


后摩智能则首先瞄准汽车场景,于2023年5月推出的存算一体智驾芯片后摩鸿途H30,预计在2024年推出第二代产品后摩鸿途H50芯片。后摩智能联合创始人、研发副总裁陈亮称,根据后摩实验室及MLPerf公开测试结果,在ResNet50性能功耗对比上,采取12nm制程的H30相比某国际芯片巨头的7nm同类芯片性能提升超2倍,功耗减少超50%。


陈亮谈道,H30背后是后摩智能自研的IPU架构,该架构设计遵循“中庸之道”。如果将集中式计算架构比作居住面积和扩展性有限的“中式庭院”,那么分布式计算架构类似于“高层公寓”,容纳性好但沟通性不足。后摩智能的IPU架构选择在两者之间寻求平衡点:在计算方面,通过多核、多硬件线程实现计算效率与算力灵活扩展;在存储方面,通过多级数据缓存实现高效数据搬运与复用;在数据传输方面,通过双环拓扑专用总线实现灵活数据传输与共享。


image.png

▲后摩智能联合创始人、研发副总裁陈亮


与存算一体的思路类似,从清华电子系智能感知集成电路与系统实验室孵化出的每刻深思,将计算部分与传感器相连,直接用模拟数据做运算,省去ADC模数转换过程,能够大幅节省功耗。


每刻深思的智能感知芯片,基于创新的近传感模拟计算架构,可落地智能驾驶、VR/AR等多类应用场景中。以汽车的哨兵模式应用场景为例,这是一种通过硬件帮助车主在远离车辆时监控车辆安全的汽车模式,每刻深思的车载“感存算一体”协处理芯片能促进哨兵模式每晚耗电从5-8度下降到0.05度;待机功耗从原来的10W下降到14mW,从而大大提升用车体验。


image.png

▲每刻深思CEO邹天琦


2、数据流驱动可重构计算:显著提升芯片利用率


可重构计算架构根据不同的应用或算法来配置硬件资源,让数据在计算单元之间流转,减少了传统的译码操作和对内存的访问,能够大幅提升效率和节省功耗。除了在这一技术路线上研发十余年之久的魏少军教授团队外,一些AI芯片企业也已经开始探索这一技术路线的落地商用价值。


AMD基于XDNA AI引擎的架构创新,是数据流处理并行计算阵列的架构,用于提供高速的、低延时、低功耗的实时推理。基于XDNA AI引擎的架构构建的Chiplet,与CPU、FPGA等构建片上异构计算平台,可扩展至数据中心、端侧(Ryzen AI)、边缘/嵌入式等不同平台来满足多样化的AI推理需求。


可重构数据流架构能并行进行数据访问和数据计算。鲲云科技联合创始人兼首席技术官蔡权雄提到一个公式:芯片的实测性能=芯片理论峰值算力x芯片利用率。而鲲云科技的可重构数据流架构,便是从芯片利用率找到突破点,最大化利用片上计算资源,提升芯片实测性能。相比于芯片利用率不足35%的指令集架构,基于鲲云可重构数据流架构的CAISA芯片最高可实现95.4%的芯片利用率。


image.png

▲鲲云科技联合创始人兼首席技术官蔡权雄


蔡权雄说:“鲲云不追求先进制程,而是从架构侧创新为行业提供极致性价比AI算力。”通过自研芯片架构CAISA 3.0和自研编译器RainBuilder,据公开测试数据显示,一颗28nm工艺的CAISA芯片相较于一颗16nm的GPU芯片,可实现最高4.12倍实测算力的提升。该芯片已实现量产和规模化落地,为10余个行业提供算力、算法、平台一体化的AI视频分析解决方案,成功落地1500多个智能化项目,覆盖智慧安监、智慧能源、工业制造等多个领域。


珠海芯动力专攻兼具通用性、高性能的RPP(可重构并行处理器)架构路径。芯动力创始人&CEO李原透露说,RPP架构是将PE阵列以流水线的方式排列,实测面积效率比可达到同类产品的7~10倍,能效比也超过3倍,也就是说,在相同算力下只需占用更小的芯片面积。


此外,RPP架构还具备全方位兼容CUDA的特性,这意味着开发者可以直接使用CUDA编程语言编写程序,无需进行复杂的代码转换。目前,芯动力首款基于可重构架构的GPGPU芯片RPP-R8已经流片成功,实现小规模量产。


image.png

▲珠海芯动力创始人&CEO李原


3、重构计算体系结构:软硬件全栈系统架构创新


进入AI新时代,芯至科技尹文认为,算力创新不再仅仅是单个处理器微架构和芯片工艺的创新,而需要软硬件全栈的系统架构全面创新,未来的创新机会来自以下方面:开放的通用指令架构,高效的融合加速器,异构互联总线和芯片工程,开源算子库、工具链和软件。


基于此,芯至科技围绕RISC-V开源指令架构、自研一致性总线、WoW 3DIC的架构创新,可以带来10倍性价比的大模型AI推理芯片。展望更长期的未来,尹文相信基于RISC-V开源指令同构和微架构异构,开源软件工具链及自主一致性总线和芯片工程创新,未来有机会推进到算力统一场。算力统一场将更利于形成更大的自主可控软件新生态,并符合计算架构的原始特征,助力我国在计算体系方面换道超车。


image.png

▲芯至科技联合创始人、首席芯片架构师兼副总裁尹文


五、为AI芯片锤炼精兵锐器,Chiplet助攻大算力芯片破局


随着摩尔定律越发难以维系,如何在面临逼近物理极限的情况下保持算力持续增长?基于先进封装的Chiplet(芯粒)技术已成为后摩尔时代兼顾经济效益和提升芯片性能的一大有效路径。


Chiplet的优势在于可以实现异构集成。这种技术方案通过先进封装技术将采用不同工艺制程、不同功能的各种Chiplet模块组合到一起,能够大幅提高大型芯片的良率,并能降低设计和制造环节的成本,同时减轻对先进制程产能的依赖。AMD MI300、特斯拉D1、苹果M1 Ultra等经典AI芯片产品均采用了先进的Chiplet架构。


珠海GPGPU创企芯动力也十分认同Chiplet技术在产业发展中的价值,计划将Chiplet和I/O Die连接形成边缘端适合的芯片,以及使用类似技术将多颗核心进行连接,提供更高计算能力。”


今年2月,北极雄芯发布了国内首款基于异构Chiplet集成的智能处理芯片“启明930”。该芯片由11块Chiplets通过高速接口拼接而成,采用12nm工艺、2.5D封装、全国产基板材料,可独立用于AI加速卡,亦可通过D2D扩展多种功能型Side Die进行集成。


其创始人、清华大学交叉信息研究院助理教授马恺声经常被问一个问题,能不能用两个2N工艺的Wafer通过3D集成,做出N工艺的性能? 答案是可以,用2块14nm芯片拼出一块7nm芯片是可能的。


image.png

▲清华大学交叉信息研究院助理教授、北极雄芯创始人马恺声


他列数了4种可能的解决方案:1)用一层晶圆做供电网络解决IR drop(电源电压降)问题;2)多层逻辑;3)内存和逻辑混合;4)将内存、逻辑、互联与存储、供电耦合到一起。


上海互联IP产品及Chiplet产品供应商奎芯科技专注于高速接口IP,同时致力于用Chiplet破解内存墙与I/O墙。其副总裁王晓阳分享说,考虑到HBM的使用存在尺寸数量、对热敏感、摆放方向和适配不灵活、工艺等限制,奎芯科技试图将HBM HOST和SoC解耦,打造M2link互联方案,将HBM和主SoC的距离拉到2.5厘米。采用这种方案,同等大小SoC可利用面积增大44%,内存容量带宽增长33%,最大芯片尺寸扩大2倍。

[1] [2]
关键字:AI芯片  AI  芯片  峰会 引用地址:云边端AI芯片热战大模型!2023全球AI芯片峰会首日干货

上一篇:Radiall雷迪埃推出用于量子计算的浮动免焊互连解决方案
下一篇:燧原科技完成D轮融资20亿,上海国际集团领投

小广播
最新网络通信文章
换一换 更多 相关热搜器件

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved