chatgpt需要什么型号的显卡 AMD展示Instinct MI300 APU加速卡

默认分类1年前 (2023)发布 admin
2,533 0
ChatGPT国内版

IT之家 1 月 8 日消息,在 CES 2023 展会上,AMD 披露了面向下一代数据中心的 APU 加速卡产品 MI300。这颗芯片将 CPU、GPU 和内存全部封装为一体,从而大幅缩短了 DDR 内存行程和 CPU-GPU PCIe 行程,从而大幅提高了其性能和效率。

这款加速卡采用 设计,拥有 13 个小芯片,基于 3D 堆叠,包括 24 个 Zen4 CPU 内核,同时融合了 CDNA 3 和 8 个 HBM3 显存堆栈,集成了 5nm 和 6nm IP,总共包含 128GB HBM3 显存和 1460 亿晶体管,将于 2023 年下半年上市。

目前来看,AMD MI300 的晶体管数量已经超过了英特尔 1000 亿晶体管的 Ponte ,是 AMD 投产的最大芯片。从苏姿丰女士手举 MI300 的照片中我们也可以看到,它的大小已经超越半个人手,看起来相当夸张。

chatgpt需要什么型号的显卡 AMD展示Instinct MI300 APU加速卡

AMD 表示,它拥有 9 个基于 3D 堆叠的 5nm 小芯片(按照此前规律应该有 3 个是 CPU、6 个是 GPU),还有 4 个基于 6nm 的小芯片,周围一圈是封装的 HBM 显存芯片,总共拥有 1460 亿个晶体管部分。AMD 表示,这款加速卡的 AI 性能比上一代()要高得多。

目前 AMD 只公布了这些信息,量产版芯片将于 2023 年下半年推出,届时可能还会有 Grace 和 GPU 等竞品,不过应该会比英特尔的 更早一些。

chatgpt需要什么型号的显卡 AMD展示Instinct MI300 APU加速卡

从 AMD 代表展示的 MI300 样品来看,这 9 颗小芯片采用有源设计,不仅可以在 I / O 瓦片之间实现通信,还可以实现与 HBM3 堆栈接口的内存控制器之间的通信,从而带来令人难以置信的数据吞吐量,同时还允许 CPU 和 GPU 同时处理内存中的相同数据(零拷贝),从而节省功耗、提高性能并简化流程。

IT之家获悉,AMD 声称 MI300 可带来 MI250 加速卡 8 倍的 AI 性能和 5 倍的每瓦性能提升(基于稀疏性 FP8 基准测试),它可以将 和 DALL-E 等超大型 AI 模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。

值得一提的是, MI300 将应用于美国即将推出的新一代 200 亿亿次的 El 超算,这也代表 El 在 2023 年完成部署时将成为世界上最快的超级计算机。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...