推荐阅读最新更新时间:2024-10-20 21:43
美光确认启动“生产可用”版 12 层堆叠 HBM3E 36GB 内存交付
9 月 6 日消息,美光在本月发布的技术博客中表示,其“生产可用”(IT之家注:原文 production-capable)的 12 层堆叠 HBM3E 36GB 内存现正向主要行业合作伙伴交付,以在整个 AI 生态系统中进行验证。 美光表示,其 12 层堆叠 HBM3E 容量较现有的 8 层堆叠 HBM3E 产品高出 50%,允许 Llama-70B 这样的大型 AI 模型在单个处理器上运行,可避免多处理器运行带来的延迟问题。 美光 12 层堆叠 HBM3E 内存具有 9.2+ Gb/s 的 I/O 引脚速率,可提供 1.2+ TB/s 的内存带宽。美光同时还宣称该产品较友商 8 层堆叠 HBM3E 竞品功耗明显更低。 HB
[半导体设计/制造]
美光量产HBM3E高带宽内存 用于英伟达H200二季度出货
美光近日宣布已开始量产其 HBM3E 高带宽内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。 美光 HBM3E 引脚速率超过 9.2Gb/s,提供超过1.2TB/s的内存带宽,美光 HBM3E 功耗比竞品低约 30%,美光 HBM3E 目前提供 24 GB 容量,使数据中心能够无缝扩展其人工智能应用。 此外,美光将于 2024 年3月出样12层堆叠的 36GB 容量 HBM3E,提供超过 1.2TB/s 的性能。同时,美光将赞助 3 月 18 日开幕的英伟达 GTC 全球人工智能大会,届时将分享更多前沿 AI 内存产品系
[半导体设计/制造]
美光开始量产行业领先的 HBM3E 解决方案,加速人工智能发展
美光 HBM3E 比竞品功耗低 30%,助力数据中心降低运营成本 2024 年 3 月 4 日,中国上海 —— 全球内存与存储解决方案领先供应商 Micron Technology, Inc. 近日宣布已开始量产其 HBM3E 高带宽内存 解决方案 。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。美光通过这一里程碑式进展持续保持行业领先地位,并且凭借 HBM3E 的超凡性能和能效为人工智能(AI)解决方案赋能。 HBM3E:推动人工智能革命 随着人工智能需求的持续激增,内存解决方案对于满足工作负载需求的增加至关重要。
[嵌入式]
SK海力士宣布大规模量产12层HBM3E芯片,实现36GB最大容量
9 月 26 日消息,SK 海力士今日宣布,公司全球率先开始量产 12 层 HBM3E 芯片,实现了现有 HBM 产品中最大的 36GB 容量;公司将在年内向客户提供此次产品。 首次消息影响,SK 海力士股价在韩国涨超 8%,市值超过 120.34 万亿韩元(IT之家备注:当前约 6351.55 亿元人民币)。 据介绍,SK 海力士还堆叠 12 颗 3GB DRAM 芯片,实现与现有的 8 层产品相同的厚度,同时容量提升 50%。为此,公司将单个 DRAM 芯片制造得比以前薄 40%,并采用硅通孔技术(TSV)技术垂直堆叠。 此外,SK 海力士也解决了在将变薄的芯片堆叠更多时产生的结构性问题。公司将其核心技术先进 MR-MUF
[半导体设计/制造]
TrendForce:三星电子 HBM3E 内存已获英伟达验证,8Hi 产品开始出货
9 月 4 日消息,TrendForce 集邦咨询在昨日报告中表示,三星电子的 HBM3E 内存产品“已完成验证,并开始正式出货 HBM3E 8Hi(IT之家注:即 24GB 容量),主要用于 H200,同时 Blackwell 系列的验证工作也在稳步推进”。 TrendForce 在此份英伟达 AI GPU 报告中提到,美光和 SK 海力士已于 2024 年一季度底通过英伟达 HBM3E 验证,并于二季度起批量出货,其中美光产品主要用于 H200,而 SK 海力士则同时向 H200 和 B100 系列供应。 ▲ 三星电子 HBM3E Shinebolt 内存 机构预估英伟达 2024 年 GPU 产品线中近 90% 将属于
[半导体设计/制造]
消息称三星 8 层 HBM3E 存储芯片已通过英伟达测试,有望第四季度供货
8 月 7 日消息,据路透社报道,知情人士称,三星电子第五代 8 层 HBM3E 产品已通过英伟达的测试,可用于后者的人工智能处理器。 知情人士表示,三星和英伟达尚未签署已获批的 8 层 HBM3E 芯片的供应协议,但很快就会达成协议,预计将在 2024 年第四季度开始供应。然而,三星的 12 层 HBM3E 芯片版本尚未通过英伟达的测试。 此次通过测试对于全球最大内存芯片制造商三星来说是一个重大突破。此前,三星在供应能够处理生成式 AI 工作的高级内存芯片的竞争中一直落后于其本土竞争对手 SK 海力士。 HBM 是一种动态随机存取内存(DRAM)标准,最早于 2013 年生产,通过垂直堆叠芯片来节省空间并降低功耗。作为 AI
[半导体设计/制造]
SK 海力士:HBM3E 内存良率已接近 80%,生产效率也已翻倍,
5 月 23 日消息,SK 海力士产量主管 Kwon Jae-soon 近日向英国《金融时报》表示,该企业的 HBM3E 内存良率已接近 80%。 相较传统内存产品,HBM 的制造过程涉及在 DRAM 层间建立 TSV(IT之家注:Through Silicon Via)硅通孔和多次的芯片键合,复杂程度直线上升。一层 DRAM 出现问题就意味着整个 HBM 堆栈的报废。 ▲ HBM 内存结构示意图。图源 SK 海力士 因此 HBM 内存,尤其是采用 8 层乃至 12 层堆叠的 HBM3E 产品,天生在良率方面落后于标准 DRAM 内存。 韩媒 DealSite 今年三月初称当时 HBM 内存的整体良率仅有 65% 左右。这样看
[半导体设计/制造]
SK 海力士:12 层堆叠 HBM3E 开发三季度完成,下半年整体内存供应可能面临不足
4 月 25 日消息,据韩媒 Viva100 报道,SK 海力士在今日举行的一季度财报电话会议上表示其 12 层堆叠(12Hi)HBM3E 内存开发有望三季度完成,而下半年整体内存供应可能面临不足。 目前三星电子已发布其 12Hi HBM3E 产品,该内存单堆栈容量达 36GB,目前已开始向客户出样,预计下半年大规模量产。 SK 海力士表示,今年客户主要聚焦 8Hi HBM3E 内存,SK 海力士将为明年客户对 12Hi HBM3E 需求的全面增长做好准备。 HBM3E 内存在价格方面相较 HBM3 更为昂贵,因为新产品可提供更大的带宽和容量。 电话会议上,SK 海力士称,其将优先确保拥有更高附加值且需求能见度更高的 HBM 内存
[半导体设计/制造]