Rambus详解HBM4内存控制器:速度高达10Gb/s,带宽2.56TB/sec
10/02/2024, 08:27 AM UTC
Rambus详解HBM4内存控制器:高达10Gb/s速度,每堆栈64GB容量Rambus details HBM4 memory controller: up to 10Gb/s, 2.56TB/sec bandwidth, 64GB per stack
➀ Rambus发布了新的HBM4内存控制器,速度高达10Gb/s,带宽为2.56TB/sec;➁ HBM4的带宽比HBM3E快33%,比HBM3快两倍;➂ 预计SK hynix和三星将在2025年底大规模生产HBM4内存。➀ Rambus details its new HBM4 memory controller with speeds up to 10Gb/s and bandwidth of 2.56TB/sec; ➁ HBM4 offers 33% faster bandwidth than HBM3E and twice the speed of HBM3; ➂ SK hynix and Samsung are expected to mass produce HBM4 memory by the end of 2025.近日,Rambus详细介绍了其新的HBM4内存控制器,该控制器提供了高达10Gb/s的速度和2.56TB/sec的内存带宽,每堆栈容量可达64GB,为下一代AI GPU和数据中心市场做好准备。
HBM4内存控制器将提供超过6.4Gb/s的每针速度,比第一代HBM3更快,并且比使用相同16-Hi堆栈和64GB最大容量设计的更快HBM3E内存具有更大的带宽。HBM4的起始带宽为1638GB/sec(1.63TB/sec),比HBM3E快33%,比HBM3快两倍。
目前,HBM3E内存以9.6Gb/s的速度运行,每堆栈内存带宽高达1.229TB/sec,而HBM4内存将提供高达10Gb/s的速度和更大的2.56TB/sec的带宽。然而,HBM4内存的完整功能还需要一段时间才能实现(NVIDIA的下一代Rubin R100将在2026年使用HBM4)。
SK hynix是唯一一家大规模生产新12层HBM3E内存的公司,容量高达36GB,速度为9.6Gbps,但预计SK hynix将在下个月完成下一代HBM4内存的tape out,而三星正在准备在2025年底之前开始HBM4的大规模生产,预计tape out将在2024年第四季度进行。
预计下一代NVIDIA Rubin R100 AI GPU将使用4x光罩设计(与Blackwell的3.3x光罩设计相比),并在TSMC的尖端CoWoS-L封装技术上制造,采用新的N3工艺节点。TSMC最近提到,2026年将出现5.5x光罩大小的芯片,采用100 x 100mm的基板,可以处理12个HBM站点,而当前一代80 x 80mm封装上有8个HBM站点。TSMC将转向新的SoIC设计,这将允许在更大的120 x 120mm封装配置上实现超过8x光罩大小,但正如Wccftech所指出的,这些仍在计划中,因此我们可能预计Rubin R100 AI GPU将采用大约4x光罩大小。
---
本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。