chatgpt复现算法 首个开源低成本复现 ChatGPT 完整流程!1.62GB显存即可体验

默认分类1年前 (2023)发布 admin
4,525 0
ChatGPT国内版

火爆全网的 ,仿佛开启了第四次工业革命,让微软、谷歌等全球科技巨头打得昏天黑

火爆全网的 ,仿佛开启了第四次工业革命,让微软、谷歌等全球科技巨头打得昏天黑地,引得各路玩家纷纷入局,抢占赛道。

然而由于 没有开源 ,如何有效复现 已成为摆在大家面前的头号难题,急需可靠的开源共建方案。

-AI 快速跟进,首个开源低成本复现 完整流程。作为当下最火热的开源 AI 大模型解决方案,-AI 已收获开源社区 Star 近万颗,此次开源亮点包括:

开源地址:

——AIGC 引发的工业革命

如果问新年伊始,最火爆的科技热点是什么?非 莫属。

它仿佛无所不能的六边形战士,可以聊天、写代码、修改 bug、做表格、发论文、写作业、做翻译、甚至代替 搜索引擎等……

自发布以来, 便已摧枯拉朽之势席卷各个行业,不仅 5 天时间便突破百万用户,月活用户突破 1 亿更是仅用时 2 个月,成为史上增速最快的消费级应用,远超如今其他知名应用,如 5 年、Meta()4 年半, 9 个月等,而手机普及到 1 亿用户则用了 16 年。

1 亿用户月活用户耗时

比尔・盖茨盛赞“ 的意义不亚于 PC 和互联网诞生”,而微软 CEO 萨蒂亚・纳德拉(Satya )更是直言“堪比工业革命,这辈子第一次见这么大的技术浪潮”和“AI 正在重塑互联网”。作为向 投资上百亿美元的大金主,微软已火速将 整合进自家的搜索引擎必应 Bing 和 Edge 浏览器,还计划加入 Teams 以及 等办公套件全家桶,股价一夜市值飙涨超 800 亿美元。

微软与谷歌发布会后股价对比

而隔壁需要担心被 革命掉自家搜索引擎的谷歌,虽然拉响 “红色警报”,紧急发布对标竞品 Bard,却因 Demo 首秀翻车,股价市值瞬间蒸发 1000 亿美元。

一夜之间,全球的科技巨头们仿佛都回到了自己年轻时的样子,纷纷宣布要打造自己的 。

但 发布已有数月,市面上不仅没有预训练权重开源,连可靠的完整开源训练流程都仍是空白,更无法实现基于千亿大模型的 全流程高效搭建和应用。临时上线,号称 “对标 ” 的一众新品们,因为闭源也难辨真伪。

chatgpt复现算法 首个开源低成本复现 ChatGPT 完整流程!1.62GB显存即可体验

为什么 有如此魔力?复现它又有哪些难点?

技术分析

的惊人效果,重要特征是在训练过程引入人类反馈强化学习(RLHF),使得模型表现更符合人类价值观。

的训练流程主要分为三个阶段:

1. 从 库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型。

2. 从 库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。

3. 基于阶段 1 的监督微调模型和阶段 2 的奖励模型,利用强化学习算法对大语言模型进一步训练。

其中阶段 3 是 RLHF 训练的核心部分, 采用了强化学习中的近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。

RLHF 的三个阶段

模型的复杂性在于强化学习的引入会带来更多模型的调用。例如,使用基于 Actor-(AC)结构的 PPO 算法,需要在训练时进行 Actor、 两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。在 基础的 的论文中,Actor 和监督微调模型都使用了 1750 亿参数的 GPT-3 系列模型, 和奖励模型则使用了 60 亿参数的 GPT-3 系列模型。

对于如此多的模型参数,想要启动原始 训练流程,需要数千 GB 的显存开销,显然远超单张 GPU 的容纳能力,常见的数据并行技术也无能为力。但即使引入张量并行、流水并行对参数进行划分,也仍需至少 64 张 80GB 的 A100 作为硬件基础。并且,其中的流水并行由于 和调度复杂,效率受限,不适合 AIGC 的生成式任务。阶段 3 涉及 4 个模型的复杂强化学习训练流程,进一步给 的代码复现带来了困难和挑战。

使用 -AI 低成本复现

-AI 以开源方式复现了 训练的基本流程,包括阶段 1 预训练,阶段 2 的奖励模型的训练,以及最为复杂的阶段 3 的强化学习训练等。

同时,-AI 通过 ZeRO,, Chunk-based 内存管理等技术,极大地降低 训练的显存开销,仅需一半硬件资源即可启动 1750 亿参数模型训练(64 卡 ->32 卡),显著降低应用成本。若使用上述相同硬件资源,-AI 则能以更短时间进行训练,节省训练成本,加速产品迭代。

为了让更多开发者体验复现 模型,除 1750 亿参数版本外,-AI 还提供高效的单卡、单机 4/8 卡的类 版本,以降低硬件限制。

chatgpt复现算法 首个开源低成本复现 ChatGPT 完整流程!1.62GB显存即可体验

在单机多卡服务器上,即便使用最高端的 A100 80GB 显卡,由于 的复杂性和内存碎片, 最大仅能启动基于 GPT-L(774M)这样的小模型的 。用 原生的 lel (DDP) 进行多卡并行扩展至 4 卡或 8 卡,性能提升有限。

-AI 不仅在单卡速度上训练和推理优势明显,随着并行规模扩大还可进一步提升,最高可提升单机训练速度 7.73 倍,单卡推理速度 1.42 倍,还可继续扩展至大规模并行,显著降低 复现成本。

为了尽可能降低训练成本和上手门槛,-AI 还提供了在单张 GPU 上即可尝试的 训练流程。相比于 在约 10 万元的 A100 80GB 上,最大仅能启动 7.8 亿参数模型,-AI 将单卡容量提升 10.3 倍至 80 亿参数。对于基于 1.2 亿参数小模型的 训练,最低仅需 1.62GB 显存,任意单张消费级 GPU 即可满足。

此外,-AI 也致力于降低基于预训练大模型的微调任务成本。以 可选的开源基础模型 OPT 为例,相比 ,-AI 可将提升单卡微调模型容量 3.7 倍(原始计算量显著增大),同时保持高速运行。

一行代码快速上手

-AI 为 Face 社区的 GPT,OPT 和 BLOOM 等主流预训练模型,提供了开箱即用的 复现代码。以 GPT 为例,仅需一行代码,指定使用 -AI 作为系统策略即可快速使用。

Pythonfrom chatgpt.nn import GPTActor, GPTCritic, RewardModelfrom chatgpt.trainer import PPOTrainerfrom chatgpt.trainer.strategies import ColossalAIStrategy
strategy = ColossalAIStrategy (stage=3, placement_policy='cuda')
with strategy.model_init_context (): actor = GPTActor ().cuda () critic = GPTCritic ().cuda () initial_model = deepcopy (actor).cuda () reward_model = RewardModel (deepcopy (critic.model)).cuda ()
trainer = PPOTrainer (strategy, actor, critic, reward_model, initial_model, ...)trainer.fit (prompts)

使用下列命令,即可快速启动单卡、单机多卡、1750 亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和 等):

Python# 使用单机单卡训练 GPT2-S,使用最小的 batch size,Colossal-AI Gemini CPU 策略torchrun --standalone --nproc_pero_node 1 benchmark_gpt_dummy.py --model s --strategy colossalai_gemini_cpu --experience_batch_size 1 --train_batch_size 1# 使用单机 4 卡训练 GPT2-XL,使用 Colossal-AI Zero2 策略torchrun --standalone --nproc_per_node 4 benchmark_gpt_dummy.py --model xl --strategy colossalai_zero2# 使用 4 机 32 卡训练 GPT-3,使用 Colossal-AI Gemini CPU 策略torchrun --nnodes 4 --nproc_per_node 8  --rdzv_id=$JOB_ID --rdzv_backend=c10d --rdzv_endpoint=$HOST_NODE_ADDR  benchmark_gpt_dummy.py --model 175b --strategy colossalai_gemini_cpu --experience_batch_size 1 --train_batch_size 1

背后优化

核心系统 -AI

复现 的背后,依赖面向大模型时代的通用深度学习系统 -AI,可基于 高效快速部署 AI 大模型训练和推理,降低 AI 大模型应用成本。

自开源以来,-AI 已经多次在 热榜位列世界第一,获得 Star 超八千颗,并成功入选 SC、AAAI、PPoPP、CVPR 等国际 AI 与 HPC 顶级会议的官方教程。除上述优化外,-AI 还针对 AI 大模型趋势,提供最多样和高效的大规模多维并行分布式解决方案。

©THE END

往期精彩回顾




© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...