人工智能chatgpt是哪个国家的 ChatGPT之后,人工智能要迎来“中国时刻”?

默认分类1年前 (2023)发布 admin
3,030 0
ChatGPT国内版

如今的中国,站在新一轮产业浪潮的拐点

2023年引爆的AIGC全球热度,在庞大用户群涌入的情况下,也催生了对算力基础设施建设更高的要求。

一些头部的云厂商也提前布局为AI大模型训练“修路”。4月14日,腾讯云发布的新一代HCC(High- )高性能计算集群刷屏全网,据了解腾讯云此次发布的HCC,利用并行计算理念,通过CPU和GPU节点的一体化设计,将单点算力性能提升至最强。

几天后,国家超算互联网工作启动会在天津召开,会议发起成立了国家超算互联网联合体。会上要求,未来科技部将通过超算互联网建设,打造国家算力底座,促进超算算力的一体化运营,助力科技创新和经济社会高质量发展。

这意味着国家将全力推动打造算力中心,作为人工智能的核心基座和数字经济的基石,算力有望迎来黄金发展期。

AI时代引爆算力需求

随着AI时代的到来,算力增长已经远远超过摩尔定律每18个月翻番的速率。

以来看,其在应用时需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,2019年微软投资 10亿美元,并与独家合作打造全球前五的超级计算机——Azure AI超算平台,超级计算机拥有超过28.5万个CPU核心、1万个GPU、每GPU拥有网络带宽,主要用于大规模分布式AI模型训练。开放以来多次满负荷,预计还需更大的ICT基建投入,才能满足后面的需求。

前不久“之父”提出新摩尔定律:全球AI的运算量每隔18个月就会提升一倍。这个也是支持AI持续深度迭代的基础。无独有偶中信证券也表示,用于AI训练的算力大约每6个月翻一番;目前大模型的出现,其训练算力是原来的10到100倍。

人工智能chatgpt是哪个国家的 ChatGPT之后,人工智能要迎来“中国时刻”?

可以说拼算力是做好AI这件事永恒的前提。这也是为何近期不少算力公司涨幅不错,比如联想集团、神州数码、浪潮信息等。

与此同时,基于大模型的多场景应用也不断拓展,万亿级别参数的大模型以及各种垂直行业的应用极大地驱动了对AI算力的需求。

因此在大模型狂飙的同时,中国需要直面的问题就是,随着众多国产大模型陆续上线后,算力消耗更会指数级增长。

此前由于算力资源缺口问题,官网一度停止Plus付费项目的购买,还频频下调提问限制次数。正是引起的算力焦虑,也使中国将提高能效比与算力利用率的迫切性推到台前。

加强算力基础设施刻不容缓

人工智能时代,无论是AIGC还是GPT,背后的核心基础设施都是算力网络。

近年来我国算力基础设施发展成效显著,据报道我国算力总规模全球第二,年增长率近30%,截至2022年底,全国在用数据中心机架总规模超过650万标准机架,算力总规模达到,存力总规模超过。

与此同时,《中国算力发展指数白皮书(2022)》(下称白皮书)显示,我国算力规模持续扩大,从基础设施侧看,数据中心、智能计算中心、超算中心加快部署,推进我国算例基础设施和应用保持快速发展,根据工信部数据,我国基础设施算力规模达到。

但值得注意的是,随着越来越多的国家开始加大算力基础设施的建设力度,使英国、荷兰、意大利、澳大利亚、新加坡等过算力排名有所提升,这就使中国在超算中心上的优势有所减弱。

人工智能chatgpt是哪个国家的 ChatGPT之后,人工智能要迎来“中国时刻”?

白皮书显示,美、中的智能算力处于全球领先地位,分别占全球比重的 45%和 28%。然而从人均算力的高低来衡量,美国、英国、德国等国家的人均算力普遍高于,而我国的人均算力处于中等水平。

“从超算中心的数量看,中国超过美国,但在计算基础方面还是有差距,核心主要在高质量的数据中心还需要提升。”中国科学技术信息研究所人工智能发展研究中心常务副主任徐峰表示。

在业内人士看来,对算力的要求主要还是聚焦在智能算力上,这也是我国亟需加强的方面。

在大国博弈的背景下,谁能率先填补大模型算力需求的缺口,谁就有机会抢占新一轮AI军备抢位赛的前排,这就需要加强中国算力方面建设。

从政策端来看,一系列信号已经明确了国家扶持和引导人工智能发展的态度。

今年2月,科技部高新司组织召开“深入实施创新驱动发展战略 加快建设科技强国”发布会,相关负责人表示,“科技部将把人工智能作为战略性新兴产业,作为新增长引擎,继续给予大力支持。一是推动构建开放协同的人工智能创新体系,加快基础理论研究和重大技术攻关。二是推动人工智能与经济社会深度融合,在重大应用场景中锤炼技术,升级迭代,培育市场。三是推动建立人工智能安全可控的治理体系。四是全方位推动人工智能开放合作。”

从产业端来看,国内科技大厂依托长期积累也逼近技术突破拐点。百度、腾讯、字节跳动等多家科技大厂均有千亿级别的参数积累,技术储备也在持续迭代、始终紧跟行业前沿。

据悉华为云的盘古大模型的预训练参数规模达到2000亿,阿里达摩院的M6模型参数达到10万亿。

早在去年10月,腾讯训练框架,完成了首个万亿参数大模型训练——混元NLP大模型训练。在同等数据集下,将训练时间由 50 天缩短到 11 天。如果基于新一代集群,训练时间将进一步缩短至 4 天。

如今之火已全球燎原,新一轮AI算力军备竞赛已经开启,新时代浪潮下,只有夯实算力底座,引导基础设施布局,国内AI产业才能走得“快”、行得“稳”。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...