chatgpt芯片中国 ChatGPT带飞英伟达,中国芯片成色几何?

默认分类1年前 (2023)发布 admin
4,031 0
ChatGPT国内版

► 文 观察者网 吕栋

“这几天电话都快被打爆了。”谈到最近爆火的,英伟达中国区一位高管日前向媒体说道。

春节过后,全球AI领域最引人关注的非聊天机器人莫属。

在资本和舆论的吹捧下,拥有交流、创作、翻译等多种功能的,俨然已成为一个现象级产品。不仅背后的和微软借此名声大噪,国内一众高调跟进的互联网大厂也赚足了眼球。

但实际上,在网友们褒贬不一、对持续展开讨论的同时,支撑诞生的算力基础——AI芯片和服务器也正在资本市场上掀起巨浪,已下跌一年的英伟达,股价在4个月里实现翻倍。

英伟达CEO黄仁勋

在国内,股市上的热情似乎更胜一筹。国产GPU厂商景嘉微股价一个月涨超60%,即便已经公开表示没有相关业务,依然挡不住股价的涨势,让高管们不趁机减持都不好意思。

算力,是人工智能的“三驾马车”之一,跟着备受追捧无可厚非。但值得关注的是,打造到底需要消耗多少算力?资本市场狂欢下,国内厂商又能在多大程度上受益?

在接受观察者网采访时,国内服务器厂商宁畅副总裁兼CTO赵雷指出,就而言,需要TB级的运算训练库,甚至是P-Flops级的算力。从目前的服务器处理能力来看,大概是几十到几百台规模的GPU服务器体量才能够实现,而且需要几日甚至几十日的训练。

市场上还有券商报告称,带动超算算力需求3年或将提升超过10倍,未来3年或将拉动千亿级ICT硬件投资需求。随着持续爆火,以英伟达为代表的AI算力产业链真的会成为最大赢家吗?

“显卡寒冬”中带飞英伟达,市场过度乐观了?

在爆火出圈之前,黄仁勋最头疼的事应该还是怎么更快度过本轮“显卡寒冬”。

刚刚过去的2022年,全球独显出货量创下二十年新低,相比2021年“腰斩”。作为全球显卡市场的头号玩家,英伟达持续遭受重创,业绩连续两个季度下滑,股价一年之内暴跌70%。

但现象级爆火很快扭转了这一颓势。去年10月中旬以来,英伟达股价从108美元/股暴涨至228美元/股,反弹111%,市值重登美股半导体板块第一,大幅甩开英特尔等同行。

“我们一直在等待这一刻,”看到英伟达股价在市场低迷下逆势暴涨,黄仁勋对的赞美也毫不吝啬,直言对于人工智能的意义,不亚于手机领域“”的出现。

英伟达CEO黄仁勋

市场好奇的是,世界上那么多芯片公司,为什么偏偏英伟达的股价会随着翩翩起舞?

简言之,就是的底层基础是一个拥有1750亿参数的预训练大模型——GPT-3.5,它能如此睿智,主要是基于对天量数据的“吃透”,背后离不开强大算力的支撑,而英伟达的GPU能提供它需要的算力。

目前来看,全球其他正在跟进的厂商想要推出这种人工智能大模型,必须有三项关键技术支撑:训练数据、模型算法和算力。

浙商证券研报指出,训练数据市场广阔,技术壁垒较低,投入足够的人力物力及财力后即可获得;基础模型及模型调优对算力的需求较低,但获得功能需要在基础模型上进行大规模预训练,这就需要大量算力,所以算力是运行的关键所在。

chatgpt芯片中国 ChatGPT带飞英伟达,中国芯片成色几何?

说起AI算力,就到了GPU的主场。

最初,英伟达基于CUDA架构开发的GPU主要用于游戏,后来发现它还可用于AI训练和推理中的大规模并行计算任务,逐渐形成开发者生态。在AI发展初期,市面上没有专门的AI加速卡和硬件产品,开发者便将英伟达GPU用于AI训练和推理,开始大规模采用其产品。

CPU和GPU架构的区别

“英伟达芯片为大模型训练做了很多优化,它才是这次热潮的最大赢家。”有业内人士直言。

那训练到底需要多少算力?

海通证券援引的测算显示,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,而训练阶段总算力消耗约为-days(即1 /s效率跑3640天)。

在接受观察者网采访时,宁畅CTO赵雷提到,目前用户使用得到的反馈,是训练后的产物,主要涉及推理应用,计算时间基本上是分钟级或者秒级的。对于训练来说,一般是周级或是月级,至少差一个数量级,也有可能差两到三个数量级。

浙商证券研报指出,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100(曾经风靡一时的也只需要8块GPU),一次模型训练成本超过1200万美元。

在此背景下,英伟达、AMD等可提供AI算力芯片的公司,股价也开始在半导体下行周期中逆势上涨。就在日前,英伟达中国区高管在接受媒体采访时提到,“这几天好多公司,包括云从科技,都来找我安排调货,根本就调不过来,需求特别大。”

观察者网就相关事宜联系云从科技投资者关系部,对方工作人员回应表示:采购信息只能以公告为准。不过他补充称,云从科技已和华为、寒武纪等国内厂商完成深度适配,而且以前也准备了一些库存,国际芯片供应不会对该公司造成明显影响。

市场上有业内人士测算,未来GPT-4可能会达到100万亿个参数,在不使用英伟达H100 GPU或优化架构的情况下,单日访问算力需要6万台A100,仅给英伟达的算力投入就是120亿美元。

“有没有这个东西,人工智能算力都是永远都不够的。”赵雷向观察者网坦言,元宇宙到现在还没有一线的3A大作游戏画面和互动性好,所以目前市场上的算力还差得远,未来5到10年,至少100倍的算力提升还是需要的。

据《2022-2023中国人工智能计算力发展评估报告》统计,2022年我国人工智能算力规模已达268百亿亿次/秒(),超过通用算力规模,预计未来5年,中国智能算力规模年复合增长率将达52.3%。

但具体厂商能在多大程度上受益,似乎仍值得观察。近日有台湾岛内行业人士透露,英伟达并没有因为在台积电加投先进工艺的4nm芯片,市场都过度乐观了。

国内厂商成色几何?

自爆火以来,国内大厂纷纷跟进,这也点燃了A股的算力基础设施概念,浪潮信息、神州数码、华胜天成等服务器产业链公司连日大涨,甚至浪潮信息还收到了深交所的关注函。

作为国内专注人工智能赛道的服务器厂商,宁畅虽然没有上市,但凭借与英特尔、英伟达的联手合作,在这轮热潮中也受到市场关注。

宁畅CTO赵雷告诉观察者网,的持续爆火为AIGC带来全新增量,行业对AI模型训练所需要的算力支持提出了更高要求,也为宁畅带来更多市场空间和发展机会。

根据IDC报告,2021年中国AI服务器市场规模达350.3亿元,同比增长68.6%,浪潮信息、宁畅、新华三、华为和安擎等位居前五,占据82.6%的份额。在全球AI服务器市场上,浪潮以20.9%的份额位居第一。

图源:IDC

chatgpt芯片中国 ChatGPT带飞英伟达,中国芯片成色几何?

但服务器只是整机,国内AI产业要想自主发展,最关键的还是在核心芯片上掌握主动权。

一组第三方数据显示,中国加速服务器市场近年来不断壮大,2021年规模达53.9亿美元,GPU服务器占绝对主导。其中,加速卡的采购型号主要集中在英伟达的T4、V100、V100S以及A100系列上,外加少量的AMD与英特尔。

IDC的数据凸显了英伟达的主导地位:2021年中国加速卡数量出货超过80万片,其中英伟达占据超过80%的市场份额。

去年9月,英伟达被限制向中国供货A100和H100 GPU的消息引发业内广泛关注。虽然英伟达积极争取美国政府许可,并提供低配版产品,但这也再次给国内产业界敲响了警钟。

观察者网注意到,在这轮爆火中,A股也有不少芯片股随之大涨,但炒作意味浓厚。

例如,国产GPU厂商景嘉微曾同时透露“产品未涉及AI训练与相关业务”和“JM9系列图形处理芯片可用于人工智能计算领域”两则消息。在市场信息不对称的情况下,景嘉微股价一个月里大涨超过60%,随后高管很快披露了减持公告。

深交所互动易截图

但也有一些上市公司明确表示拥有类GPU芯片业务。例如,海光信息在招股书中透露,该公司系列产品可以广泛应用于大数据处理、人工智能、商业计算等应用领域。自1月中旬以来,海光信息股价累计涨近30%。

此外近几年在市场上连续大额融资的初创公司,像天数智芯、壁仞科技、摩尔线程等公司,也都推出了自研的通用GPU产品。例如,去年8月壁仞科技发布首款7nm制程的通用GPU芯片BR100,称其可与英伟达的旗舰H100一较高下,但尚未量产上市。

英伟达的“霸权”之下,这些新创公司的产品要想在市场上打开局面,一方面要解决性能和生态适配问题,甚至要反向适配英伟达的生态,另一方面要寄望于国内芯片制造的突破。以在芯片量产方面走在同行前列的天数智芯为例,到2022年底累计销售订单为3亿元,与数十亿的融资相比仍差距显著。

除了GPU,CPU、ASIC(专用集成电路)和FPGA(现场可编程门阵列)等芯片被视为也可为不同AI计算任务提供算力,例如寒武纪就推出了一系列ASIC加速芯片,华为也设计了昇腾310和昇腾910系列ASIC芯片,但ASIC芯片通常针对AI应用专门设计了特定架构,通用性不如GPU。

图源:浙商证券

谈到高端算力芯片的市场竞争,海光信息在招股书中指出,在通用处理器领域,英特尔、AMD的CPU产品在全球市场中占据绝对优势地位;在协处理器领域,英伟达、AMD的GPGPU产品占据绝对优势地位。总体上国内厂商的市场份额与国际龙头企业相比差距较大,面临着该领域激烈的市场竞争。

“今天芯片产业面临的问题不是科研问题,更不是资本运作的问题,而是在成熟的产业生态体系里,我们没有占到核心关键点,更没有核心掌控力。”海银资本创始合伙人王煜全2月8日撰文指出。

他提到,今天非常主流的CPU、GPU芯片生态,是美国政府和众多欧美科技企业花了30多年时间逐步培育、发展起来的。这个领域,从最上游的指令集、芯片设计软件,到下游制造需要的光刻机,都已经有非常成熟的布局。除了表面上能看到的各种技术专利、行业标准,还有大量沉淀在业内,很难快速传播和复制的制造、生产经验,已经形成了壁垒森严的体系。

王煜全呼吁,在系统芯片异构计算时代,芯片企业、人工智能企业和产生大量数据的应用企业,这三方要深度合作,这样芯片的制造水平未必是最好,但芯片训练的模型是最好的。

“虽然英伟达占据先发优势,但其他厂商也在迎头赶上。”近期还有行业人士指出,对这类大模型训练,包括商业巨头和头部的研发机构都有持续在投入,像国内的百度、智源、华为、阿里等,其投入规模至今应该超百亿,主要是数据、硬件和人才的持续投入。可预知的是,还有很长的路要走,大模型应用正处于行业爆发的前夜,可以拭目以待。

来源|观察者网

支持我们点击下面图片即可购买我们的新书

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...