AMD Instinct MI300X 和 MI300A 是人工智能领域最受瞩目的加速器,将于下月发布。人们对 AMD 的首款全面人工智能杰作充满了期待,今天我们就来为大家盘点一下这款技术奇迹的亮点。
AMD Instinct MI300X 专为 GPU 加速的 AI 工作负载而设计,而 MI300A 则以技术最先进的 APU 组合应对 HPC
12 月 6 日,AMD 将举办 "推进人工智能 "主题演讲,主要议程之一是全面发布代号为 MI300 的下一代 Instinct 加速器系列。这一新的 GPU 和 CPU 加速系列将成为人工智能领域的主导产品,而人工智能是 AMD 当前最重要的战略重点,因为 AMD 终于推出了一款不仅先进,而且旨在满足行业内关键人工智能需求的产品。MI300 级人工智能加速器将是另一款芯片级产品,采用台积电的先进封装技术,让我们看看这些人工智能怪兽的引擎盖下到底有什么。
AMD Instinct MI300X--凭借 CDNA 3 和超大内存挑战英伟达的人工智能霸主地位
AMD Instinct MI300X无疑是最受关注的芯片,因为它的目标显然是英伟达(NVIDIA)的Hopper和英特尔(Intel)的Gaudi加速器。这款芯片完全基于 CDNA 3 架构设计,其中蕴含着丰富的内涵。该芯片将采用 5 纳米和 6 纳米混合 IP,所有 IP 组合可提供高达 1530 亿个晶体管(MI300X)。
从设计入手,主插接器采用无源芯片,内含使用新一代 Infinity Fabric 解决方案的互连层。中间件总共包含 28 个芯片,其中包括 8 个 HBM3 封装、16 个介于 HBM 封装之间的虚拟芯片和 4 个有源芯片,每个有源芯片有两个计算芯片。
每个基于 CDNA 3 GPU 架构的 GCD 共有 40 个计算单元,相当于 2560 个内核。总共有 8 个计算芯片(GCD),因此总共有 320 个计算单元和 20,480 个核心单元。就产量而言,AMD 将缩减其中一小部分核心,我们将在一个月后获得有关具体配置的更多细节。
内存是MI300X的另一个巨大升级领域,其HBM3容量比前代产品MI250X(128 GB)多出50%。为了实现 192 GB 的内存池,AMD 为 MI300X 配备了 8 个 HBM3 堆栈,每个堆栈为 12-Hi,同时集成了 16 Gb IC,每个 IC 的容量为 2 GB,每个堆栈为 24 GB。
内存将提供高达 5.2 TB/s 的带宽和 896 GB/s 的 Infinity Fabric 带宽。相比之下,英伟达(NVIDIA)即将推出的 H200 AI 加速器可提供 141 GB 的容量,而英特尔的 Gaudi 3 将提供 144 GB 的容量。大容量内存池对于主要受内存约束的 LLM 来说非常重要,而 AMD 绝对可以通过在内存方面的领先优势来展示其在人工智能方面的实力。比较
Instinct MI300X - 192 GB HBM3
高迪 3 - 144 GB HBM3
H200 - 141 GB HBM3e
MI300A - 128 GB HBM3
MI250X - 128 GB HBM2e
H100 - 96 GB HBM3
Gaudi 2 - 96 GB HBM2e
在功耗方面,AMD Instinct MI300X 的额定功率为 750 瓦,比 Instinct MI250X 的 500 瓦增加了 50%,比英伟达 H200 多 50 瓦。
AMD Instinct MI300A - 高密度封装的超大规模 APU 现已成为现实
我们等待多年的AMD终于兑现了推出Exascale级APU的承诺,随着Instinct MI300A的发布,这一天即将到来。MI300A 的包装与 MI300X 非常相似,但它采用了 TCO 优化内存容量和 Zen 4 内核。
其中一个有源芯片切掉了两个 CDNA 3 GCD,取而代之的是三个 Zen 4 CCD,它们提供各自独立的高速缓存和内核 IP 池。每个 CCD 有 8 个内核和 16 个线程,因此有源芯片上共有 24 个内核和 48 个线程。此外,还有 24 MB 二级缓存(每个内核 1 MB)和一个独立的缓存池(每个 CCD 32 MB)。CDNA 3 GCD 的二级缓存也是独立的。
我们总结了 AMD Instinct MI300 处理器的一些亮点功能:
首款CPU+GPU集成包
面向超大规模超级计算机市场
AMD MI300A(集成 CPU + GPU)
AMD MI300X(仅图形处理器)
1530 亿个晶体管
多达 24 个 Zen 4 内核
CDNA 3 GPU 架构
高达 192 GB HBM3 内存
多达 8 个芯片组 + 8 个内存堆栈(5 纳米 + 6 纳米工艺)
AMD 将与生态系统推动者和合作伙伴合作,以 8 路配置提供 MI300 AI 加速器,采用 SXM 设计,通过夹层连接器连接到主板。虽然 SXM 板是必然的,但我们也可以期待一些 PCI-E 形式的变体。
目前,AMD 应该知道,他们的竞争对手也在全力推动人工智能热潮,英伟达(NVIDIA)已经预告了其 2024 Blackwell GPU 的一些庞大数据,英特尔(Intel)也在为未来几年推出的 Guadi 3 和 Falcon Shores GPU 做准备。目前可以肯定的一点是,人工智能客户几乎会吞噬他们能得到的一切,每个人都会利用这一点。但 AMD 有一个非常强大的解决方案,其目标不仅仅是成为英伟达的替代品,而是成为人工智能领域的领导者,我们希望 MI300 能帮助他们取得成功。
转自:https://wccftech.com/amd-instinct-mi300x-mi300a-ai-accelerators-detailed-cdna-3-zen-4-come-advanced-packaging-marvel/
评论