ai软件有多大内存 AI服务器市场有多大?被动元器件的机会来了

默认分类10个月前发布 admin
57 0
ChatGPT国内版

最近有消息传出,阿里云A100服务器业务暂停出租,这意味着国内英伟达算力将会面临紧缺的状况。而据国盛证券发布的一份研报指出,随着拿卡难度加大,算力运营方开始“抢单”H800服务器,报价冲上了300万/台。这两个消息都暗示着算力租赁行业涨价行情即将到来,AI服务器的抢单现象也愈演愈烈。

AI服务器迎来了一波抢单潮。

“群模混战”引发AI服务器需求

根据业内人士的观点,今年对于AI服务器的需求超出了预期,主要原因是各大模型的发展。数据显示,自从Open AI推出了以来,国内各大厂商纷纷加快步伐,不仅包括百度的文心一言、科大讯飞的星火和华为的盘古等互联网公司积极开发语言模型,还有各大终端市场也积极接入大模型。正是这场”群模大战”点燃了AI服务器的需求热潮。

根据的预测,2023年全球AI服务器的出货量预计将达到118.3万台,同比增长38.4%。而到了2025年,这一数字有望攀升至近189.5万台,年复合增长率高达41.2%。

ai软件有多大内存 AI服务器市场有多大?被动元器件的机会来了

就市场格局而言,AI服务器的份额相对集中,浪潮信息占据全球市场份额的20.2%,稳居第一,其他国内头部厂商包括中科曙光、拓维信息、神州数码和紫光股份等。

AI服务器核心器件

AI服务器的核心芯片组件主要包括CPU、GPU、NPU、ASIC、FPGA等加速器,以及内存、存储、网络等配件。

相对于传统的中央处理器(CPU),GPU具有更多的计算核心和更快的内存带宽,从而大幅提高计算效率和图形渲染速度。

当前阶段,随着英伟达发布了A100、H100等型号产品,GPU在算力方面的优势显著,逐渐从最初的图形处理转向计算任务。

ai软件有多大内存 AI服务器市场有多大?被动元器件的机会来了

GPU由于其具有最强的计算能力同时具备深度学习等能力,故而成为最适合支撑人工智能训练和学习的硬件,目前已成为服务器中加速芯片的首选。

根据IDC的数据,用于运算和存储的芯片约占服务器成本结构的70%,其中在机器学习型服务器中,GPU成本占比达到72.8%。

数据来源:行行查研究中心、东方证券研究所 制表:《半导体器件应用》

据统计,根据GPU数量的不同,AI服务器进一步分为四路、八路和十六路服务器,搭载8块GPU的八路AI服务器最常见。

在当前国内二级市场上,主要有寒武纪、海光信息和景嘉微等公司布局GPU芯片。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...