chatgpt部署到个人服务器 申请 ChatGPT 和新 Bing 们的账号,为什么都要等这么久?

默认分类1年前 (2023)发布 admin
4,531 0
ChatGPT国内版

上周,AIGC 的变化让世界变得疯狂,每天醒来都可能是一个「新世界」。

但从另一个角度上来说,无论 AIGC 如何智能和颠覆,我们仍然处于「旧世界」,或者准确的说,应该是「候补」世界。

不止是新 Bing, X, 的插件, V5,以及 Adobe 的 ,甚至是百度的文心一言,在你体验之前,都需要加入 名单进行排队等待名额。这个过程,像极了计划经济的配给制。

随着 AIGC 的服务越多,也包括原有的像是 GPT-4、 V5 的升级, 的时间仿佛被延长。

V5

直到如今,仍然有相当多人还存在于新 Bing 的 之内,更别说其他更新的生成式 AI 体验。

或许是对 这个潜规则的无声反抗,有人做了一个「一键进行所有排队」的网站。

不过讽刺的是,「一键加入」的功能还未做好,需要先加入 等待,且网站域名后缀是 wtf,怨气拉满。

候补名单的背后是为了更稳的服务

当我把这个问题丢给 Bing,Bing 从 官方网站的三个页面里找到了四个原因。

而这也更像是 、微软、 等大公司针对无限期 Wait 的一些官方话术。

相对来说,最先走入大众的 ,随着模型的升级,以及大幅度降价, 的服务也出现过不少的波动。

问答列表的混乱,宕过机,响应慢等等稳定性问题。

而基于 的新 Bing 同样也出现过过激的言辞,一直到现在,微软也在限制新 Bing 的对话次数与长度。

你可以说,限制使用 和新 Bing 的人数,能够提供更稳定和快速的响应和内容生成。

但要知道这些功能和服务,已经消耗了相当的资源,几乎占用了微软 Azure 一半的算力。

目前,AIGC 还尚未迎来超级 App,仍然处于一个快速迭代的过程,甚至也可以说仍然是一个 Beta 测试版本。

通过传统的对话框与 AI 进行交互,其实是与 2023 年人手一部智能手机的状况不太相匹配。

AIGC 现在只能算是一个功能,而即将推出的 、 等才更像是个产品。

chatgpt部署到个人服务器 申请 ChatGPT 和新 Bing 们的账号,为什么都要等这么久?

365 的 功能

但它们仍然还未向外开放,躺在一个个 里。

从某方面来说,微软、、Adobe 还在「打磨」自己的产品,而从另一个方向来看,想要对所有人敞开大门,或者说 AI 成为每个人的 ,还需要突破一些「瓶颈」。

蓬勃发展的 AIGC,或许开始触及瓶颈

这里的「瓶颈」,并非是外在表现的,生成式 AI 所遇到的伦理、法律法规或者说其响应的准确度。

反而是 AI 背后提供算力的硬件,以及各种用于训练的云算力。

微软正持续在 上大手笔的投入,先后投入几十亿美元,也逐步出现了基于 GPT-4 的新 bing,和后续还在 上的新 。

同时,为了保证新 bing,以及后续具有 功能的新 能够稳定快速地响应。

微软也提供和预留了其 Azure 云服务的一半算力和运算容量。

如此也导致了微软内部 Azure 算力资源的紧张。The 就采访了微软内部员工,针对于有限的硬件运算资源,微软正在实行内部硬件 制度。

微软内部其他开发机器学习模型的团队和部门,想要调用 Azure 的 AI 云服务,需要逐级审批报备,并最终由一位副总裁来定夺。

就如同我们在排队体验新的生成式 AI 服务,除了新 bing 和新 和 服务外,微软其他部门也在等待多余的 Azure 云算力。

只是,随着微软 All in 的策略,Azure 云相关算力和容量也显得十分紧张。

除了内部调用外,Azure 也提供了各种产品和服务,包括 AI、计算、容器、混合云、物联网等。

作为云服务供应商 Azure 目前扩展到全球 60 多个区域,其对外服务器产品和云服务收入占到微软总营收的 36%。

但与微软内部团队类似,购买 Azure 的客户也受到了算力受限的影响,尤其是想要调用 Azure 依旧需要加入 。

大概从 2022 年底,微软就打算增加更多的硬件(GPU 或者 TPU)来扩充更多的算力。

并且也与英伟达达成协议,为 Azure 增加数万个 H100 GPU 计算卡,为后续 提供更高的 AI 训练和推理效率。

不过,目前微软与英伟达并未透露在 Azure 当中 H100 的部署情况,微软内部也只有一小部分团队拥有 H100 的调用权限(大概率是新 bing 和 ),大部分的部门仍然被排除在外。

一块 H100 大概的售价可能在 24 万元上下,以此为参考的话,微软为 Azure 扩容则需要投入数亿资金。

chatgpt部署到个人服务器 申请 ChatGPT 和新 Bing 们的账号,为什么都要等这么久?

不止是微软,、甲骨文这些云服务商,也在大力投入 GPU 等硬件为自己的云服务扩容,准备在 AIGC 彻底爆发之前,做好算力上的准备。

英伟达 CEO 黄仁勋与 联合创始人兼首席科学家 Ilya

但从 GTC 2022 发布到现在,英伟达并没有对外公布 H100 的供应和销售情况,微软对于 Azure 的扩容计划是否成效也不得而知。

而在今年的 GTC 2023 中,英伟达并没有带来关于 H100、A100 硬件上的进展,而是一直在强调英伟达在云计算硬件上的优势。

并且其首席技术官也开始强调,「加密货币对于社会没有任何有益的贡献」,也从侧面开始强调 AIGC 领域将会是英伟达接下来 30 多年所专注的领域。

随着 AIGC 领域的持续迭代,大概从 2022 年 10 月份,英伟达的股价也随之增长,一扫此前因为加密货币衰退而导致的业务下滑颓势。

目前,英伟达的市值又达到了一个高点,几乎等同于 Intel、AMD、ARM 这三家市值之和。

但如此的高市值,似乎并没有改善硬件的供应状况,反而随着 、微软等大企业不计成本资源地对云计算硬件投入,按照此前英伟达的供应状况,很可能再次出现工业显卡慌的一个局面。

不止是硬件供应状况,这些高性能 GPU 组成的计算矩阵也有着很高的功率,单张 SXM 接口的 H100 计算卡功率就达到了 700W。

用于 AI 模型训练和大数据处理的计算中心的耗电量实际上也十分惊人。

在 2021 年,加州大学的 David 、 通过研究表明,训练 GPT-3 大概需要耗费 1.287 千兆瓦时的电力,它相当于 120 个美国家庭一年的用电量。

同时,这篇论文还发现,训练 GPT-3 会产生 502 吨的碳排放,等同于 110 辆汽车的一年排放量。

他们也强调这只是一个模型的训练成本,随着它涌入市场,也会产生更多的资源消耗,可能要比训练成本还高。

的 GPT-3 使用了 1750 亿个参数或者变量,而 GPT-4 的参数预计在 1750 亿到 2800 亿之间。对于能耗,云计算的需求只增不减。

为此, CEO Sam 在接受 The Verge 采访时表示, 正在寻找有效的方法来提升模型的性能和安全性。

换句话说, 也在试图通过更高效的算法来寻找节省训练运行模型的硬件、电力资源。

的机制,从浅层次来看,它确保了当前 AIGC 的使用体验,以及相关服务的响应速度。

但从深层次来看,它也是一场资源角力,是 GPU、TPU 为核心的云计算中心算力和容量的互相角力,也是宏观上高投入高能耗的一场竞争。

而到目前为止,AIGC 其实仍处于一个「盲盒」阶段,对于资源的需求和占用也尚不明朗。

不过,站在各种 AI 服务的 队列里,确实很像在科幻电影里人们正不断排队进入 AI 控制的工厂,为其运行提供所需的资源。

,既是虚拟世界里的候补名单,也可能是将来现实世界当中的一则为 AI 服务的队列。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...