chatgpt 训练模型gpu数量 总结一下全球厂商的GPU数量以及训练GPT

默认分类2年前 (2023)发布 admin
4,045 0
ChatGPT国内版

本文来自官方博客:总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/所需要的GPU数量 | 数据学习者官方网站()

GPU Utils最近总结了一个关于英伟达H100显卡在AI训练中的应用文章。里面透露总结了一些当前的主流厂商拥有的显卡数量以及一些模型训练所需的显卡数。文章主要描述的是H1000的供应与需求,也包含H100的性能描述,本文主要总结一下里面提到的显卡数相关统计供大家参考。

H100简介以及常见的H100、、DGC 、HGX H100s的区别

chatgpt 训练模型gpu数量 总结一下全球厂商的GPU数量以及训练GPT

首先还是简单介绍一下这里涉及到的显卡基本知识。H100是目前全球性能最高的专业级显卡,特别适合用来训练大语言模型这种超大规模参数的大模型。速度很快。在16-bit训练上,比A100快2.3倍,在16-bit的推理上比A100快3.5倍。

当然,与H100经常一起出现的还有H100s, , DGX , HGX H100s, 和 DGX H100s这些名称,其基本区别如下:

也就是说,H100只是一个显卡,但是尝试可以创建服务器,包含4个或者8个H100一起互联,用以提供给大模型训练等。这里还有一个注意的Grace CPU,这是英伟达自己基于ARM开发的服务端CPU。

chatgpt 训练模型gpu数量 总结一下全球厂商的GPU数量以及训练GPT

这里带有GH的表示配备了英伟达Grace CPU的服务器,DGX则表示是英伟达自己供应的带有GPU的服务器。

GPT-4/等模型训练用到的GPU数量

这篇博客中还介绍了一些模型训练使用的GPU数量,当然这些数据原文都有参考文献和出处,我们就不列举了。

、特斯拉等厂商拥有的GPU数量

原文:总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/所需要的GPU数量 | 数据学习者官方网站()

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...