Rambus发布HBM4E内存控制器IP以应对下一代AI带宽需求
编辑者: Dmitry TestDrozd222
芯片与硅知识产权技术公司Rambus公司于2026年3月4日正式宣布推出其HBM4E内存控制器知识产权(IP)。这一前瞻性解决方案旨在为下一代人工智能加速器、图形处理器(GPU)以及高性能计算(HPC)系统所面临的严苛内存带宽要求提供突破性的性能和先进的可靠性特性。
Rambus将这款HBM4E控制器定位为业界首创,目标是满足支持HBM4的处理器在2026年进入大批量生产时不断攀升的内存带宽需求。该控制器在每引脚(per pin)操作速度上最高可支持16吉比特每秒(Gbps)的速率,这意味着单个HBM4E器件理论上可提供4.1 TB/s的内存带宽。在一个典型的AI加速器配置中,如果连接了八个HBM4E堆栈,该解决方案能够支持的总内存带宽将超过32 TB/s。如此巨大的数据吞吐能力被视为对大规模模型训练、推理和数据密集型HPC工作负载至关重要的基础能力。
值得注意的是,HBM4E的16 Gbps/pin速度相较于HBM4标准规范的8 Gbps/pin有了显著提升,并且比Rambus自家的HBM4控制器(10 Gbps/pin)快了60%。HBM4E本身是一种高带宽内存堆栈,其核心技术在于利用穿透硅晶片的通孔(TSV)将DRAM芯片垂直堆叠,以实现极高的带宽和极低的延迟。行业标准制定机构JEDEC已于2025年4月宣布了HBM4标准(JESD270-4),该标准本身已将每堆栈的独立通道数从HBM3的16个增加到32个,并支持高达64 GB的单堆栈容量。行业路线图显示,HBM4E的质量验证目标定于2026年下半年,以配合2027年新一代加速器的发布计划。
Rambus公司正凭借其在HBM领域超过一百项的设计成功案例,巩固其在未来AI系统级芯片(SoC)设计中的控制器IP市场地位。新发布的IP集成了先进的可靠性特性,旨在帮助客户在芯片复杂性日益增加的背景下,实现首次流片成功。国际数据公司(IDC)的程序副总裁Soo Kyoum Kim指出,随着AI处理器需求的持续攀升,HBM4E IP解决方案对于广泛的行业采用至关重要。该控制器IP的灵活性允许其与第三方PHY解决方案配对,在2.5D或3D封装中构建完整的HBM4E内存子系统,覆盖云端、企业级和边缘部署场景。
Rambus的Simon Blake-Wilson强调,鉴于人工智能对带宽的无止境需求,内存生态系统必须积极推进内存性能的持续发展。目前,Rambus的HBM4E内存控制器IP已开放授权,并已向设计客户启动了早期访问计划。值得关注的是,AMD的MI500系列加速器和NVIDIA的Rubin Ultra GPU预计将采用HBM4E标准。MatX的联合创始人兼首席执行官Reiner Pope也表示,HBM带宽是影响大型语言模型(LLM)性能的主要瓶颈之一,业界为进一步提升带宽所做的努力值得关注。
2 查看
来源
SiliconANGLE
SiliconANGLE
Tom's Hardware
TrendForce
Wikipedia
Rambus Inc.
阅读更多关于该主题的新闻:
你发现了错误或不准确的地方吗?我们会尽快考虑您的意见。



