chatgpt显卡需要1万 ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存

默认分类1年前 (2023)发布 admin
543 0
ChatGPT国内版

作为当前最火的 AI 应用,人工智能聊天机器人 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡

有报道显示,为了创建和维持 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。

外媒在报道中提到,为了满足当前的服务器需求, 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。

若将 整合到搜索服务中,那使用的 GPU 将会是海量的。

chatgpt显卡需要1万 ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存

外媒预计,将当前技术应用到每一次的 搜索中,需要 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此, 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期。

此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。

在AI算力中,除了GPU性能,内存也非常重要,的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。

随着 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单, 已经要求 SK 海力士生产最新的 HBM3 内存。

chatgpt显卡需要1万 ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存

其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。

目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。

三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...