科技前沿

英伟达™(NVIDIA®)将于 2024 年第一季度通过 Hopper H200 开始采用 HBM3e,HBM4 预计将于 2026 年亮相

TrendForce 预计,英伟达的人工智能订单将主导当前和下一代 HBM 的市场。


英伟达计划利用下一代 HBM 内存主宰人工智能市场,供应商开始围绕绿色团队打转

根据市场调研,英伟达准备将其 HBM 订单的相当一部分交给韩国巨头三星,因为两家公司开始建立业务联系,这对人工智能行业至关重要。


TrendForce 现在透露,三星可能在 12 月前完成这一过程,订单将从明年初开始流入。三星有可能负责当前一代人工智能 GPU,如要求极高的 H100s 和 A100s。

除了 HBM3,下一代 HBM3e 标准的采用也在按部就班地进行,因为行业消息人士称,美光、SK 海力士和三星等供应商已经启动了 HBM3e 的采样过程,据说 2024 年可能会有决定性的结果。在性能方面,通过采用芯片组设计,HBM3e 将带来决定性的每瓦性能提升。


有趣的是,英伟达在2024年为客户准备了很多东西,因为该公司已经发布了H200 Hopper GPU,预计将在明年实现大规模应用,随后还将推出B100 "Blackwell "AI GPU,这两款产品都将基于HBM3e内存技术。


除了传统路线,据传英伟达还将为人工智能领域推出基于 ARM 的 CPU,这将使市场多样化,同时也会加剧竞争。英特尔和 AMD 预计也将推出各自的人工智能解决方案,其中值得关注的是采用 HBM3e 内存的下一代 AMD Instinct GPU 和英特尔的 Gaudi AI 加速器。


最后,TrendForce 介绍了我们对 HBM4 的期待,特别是即将推出的内存标准将在板载芯片配置方面进行全面改革,因为据传基础逻辑芯片将首次采用 12 纳米工艺晶圆,并将成为 3D 封装 DRAM/GPU 的驱动力,从而在代工厂和内存供应商之间建立合作环境。预计 HBM4 将标志着计算能力方面的下一代过渡,它可能成为人工智能行业未来取得突破的关键。


新闻来源:TrendForceTrendForce


相关主题

评论

回复