8 11 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

24 个 Zen 4 CPU 内核,1460 亿个晶体管,128GB HBM3,比 MI250X 快 8 倍

24 个 Zen 4 CPU 内核,1460 亿个晶体管,128GB HBM3,比 MI250X 快 8 倍

AMD 刚刚确认了其规格 MI300 本能 CDNA 3 加速器,在 5nm 3D 芯片组封装中使用 4 个 Zen CPU 内核。

AMD Instinct MI300 ‘CDNA 3’ 规格:5nm 小芯片设计,1460 亿个晶体管,24 核 Zen 4 CPU,128GB HBM3

最新公布的 AMD Instinct MI300 加速器规格证实,这款 APU 将成为芯片设计中的佼佼者。 该 CPU 将包括多个 5nm 3D 芯片封装,所有这些芯片封装可容纳 1460 亿个晶体管。 这些晶体管包括许多基本 IP 地址、内存接口、互连等等。 CDNA 3 架构是 Instinct MI300 的核心 DNA,但 APU 还配备了总共 24 个 Zen 4 数据中心和 128 GB 的下一代 HBM3 内存,运行在 8192 位宽的总线配置中,这真是太棒了。

在 AMD 2022 年财务日期间,该公司确认 MI300 将是一款多芯片和多 IP Instinct 加速器,不仅具有下一代 CDNA 3 GPU 内核,还配备了下一代 Zen 4 CPU 内核。

为了实现超过 2 exaflops 的双精度处理能力,美国能源部、劳伦斯利弗莫尔国家实验室和 HPE 与 AMD 合作设计了 El Capitan,预计它将成为世界上最快的超级计算机,预计将于 2023 年初交付. El Capitan 将利用 El Capitan 产品 下一代包括来自 Frontier 定制处理器设计的改进。

  • 代号为“Genoa”的下一代 AMD EPYC(霄龙)处理器将采用“Zen 4”处理器内核,以支持用于 AI 和 HPC 工作负载的下一代内存和 I/O 子系统。
  • 基于针对 HPC 和 AI 工作负载的全新计算优化架构的下一代 AMD Instinct GPU 将使用下一代高带宽内存来实现最佳的深度学习性能。

这种设计将擅长分析 AI 和机器学习数据,以创建更快、更准确并能够衡量预测不确定性的模型。

通过AMD

在其最新的性能比较中,AMD 表示,与 Instinct MI250X 相比,Instinct Mi300 的 AI 性能 (TFLOPs) 提高了 8 倍,每瓦 AI 性能 (TFLOPs/watt) 提高了 5 倍。

AMD 将为 Instinct MI300“CDNA 3”CPU 使用 5nm 和 6nm 工艺节点。 该芯片将配备下一代 Infinity Cache,并采用第四代 Infinity 架构,支持 CXL 3.0 生态系统。 Instinct MI300 加速器将震撼 APU 的统一内存架构和数学新格式,允许每瓦特性能提升 5 倍,这是巨大的 CDNA 2。 与基于 CDNA 2 的 Instinct MI250X 加速器相比,AMD 的 AI 性能也下降了 8 倍以上。CDNA 3 GPU 的 UMAA 将 CPU 和 GPU 连接到统一的 HBM 内存包,消除了冗余内存复制,同时提供了较低的购置成本。

AMD Instinct MI300 APU 加速器预计将于 2023 年底上市,也就是上述 El Capitan 超级计算机发布的时间。

分享这个故事

Facebook

推特

READ  FBI 称避免使用公用电话充电器