chatgpt需要的算力多大 AI大模型的算力需求爆发:投资者眼中的新金矿

默认分类1年前 (2023)发布 admin
2,534 0
ChatGPT国内版

2023年伊始,我们可以明显感受到资本市场的关注点发生了变化,AIGC(AI大模型)逐渐成为本轮大行情的全新焦点。今年以来,从国外的到国内的文心一言,再到华为的盘古大模型、讯飞星火大模型等纷纷推出,形成了一种你一唱我一和的局面。

尽管参与者众多,但目前为止,这些应用离真正的落地还有很大的距离。实际上,无论是哪家公司在训练大模型,都离不开庞大的算力支持。因此,目前真正受益于AI大模型的可能是为大模型训练提供算力支持的高性能算力厂商和服务器厂商。

引发算力需求飙升 在AI大模型飞速发展的背景下,单个大语言训练就需要大约2亿美元的AI训练服务器,而像这样的AI推理服务器在初期就带动了大约45亿美元的需求。随着等应用的爆发,背后的AI服务器需求也水涨船高。

具体来说,算力是大模型的核心引擎,它的计算方式非常简单直接,即GPU芯片的数量决定了算力的大小。而且所需的算力并不是固定的,它随着智能程度的提高而逐渐增加。这意味着越聪明,它背后所需的算力就越多。由于供需之间的现实差距,算力资源的紧缺问题变得更加严重。

chatgpt需要的算力多大 AI大模型的算力需求爆发:投资者眼中的新金矿

从需求的角度来看,大模型参数量不断增加,需要更多的算力资源来支持。从大模型自身的发展来看,参数量的变化是一个非常值得关注的指标。从最早的、等模型到如今的GPT模型,大模型的参数量不断增加。

据数据显示,2018年前后,先后推出了和GPT-1模型,参数量在1亿级别。随后,谷歌提出了3亿参数的BERT模型,参数量再次增长。2019年和2020年,加快追赶步伐,相继推出了GPT-2和GPT-3模型,参数量分别达到了15亿和1750亿。而阿里达摩院旗下的多模态大模型M6的参数量甚至达到了万亿甚至10万亿级别。随着数据量的指数级增长,未来大模型的参数量可能会进一步增加。

然而,与大模型参数量的增长相对应的是对算力资源的巨大需求。训练一个参数量巨大的大模型需要大量的计算资源和时间。通常情况下,这些大模型的训练过程需要使用多个GPU甚至是分布式集群进行并行计算。因此,大模型的发展推动了对高性能计算资源的需求增长。

chatgpt需要的算力多大 AI大模型的算力需求爆发:投资者眼中的新金矿

为满足这一需求,云计算服务商和服务器厂商纷纷推出针对AI训练的高性能计算平台和专用服务器。这些平台和服务器配备了更多的GPU,提供更强大的算力支持,以满足大模型训练的需求。例如,推出的A100 GPU和AMD推出的CDNA GPU等,都是专为高性能计算和AI训练而设计的。同时,云计算平台如AWS、Azure和谷歌云也提供了高性能GPU实例,以支持用户进行大规模AI训练。

在AI大模型的背景下,算力需求的飙升也带来了投资机会。与AI算力相关的公司,如芯片制造商、服务器厂商和云计算服务商,有望受益于这一趋势。投资者可以关注与AI算力相关的公司的业绩和发展前景,以把握潜在的投资机会。

然而,需要注意的是,AI大模型的发展也面临着一些挑战。除了算力需求的增长,还有数据隐私、计算效率、模型可解释性等问题需要解决。此外,对环境的影响也是一个重要的考量因素,大规模的算力需求可能带来能源消耗和碳排放的增加。因此,在AI大模型的发展过程中,需要综合考虑技术、经济、环境等各方面的因素,以实现可持续发展。

总之,AI大模型的兴起引发了对高性能计算资源的巨大需求,推动了算力厂商和服务器厂商的发展。同时,这也为投资者提供了一些机会,但需注意挑战和风险。随着AI技术的不断发展,我们可以期待在未来看到更多关于AI大模型及其相关领域的创新和突破。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...