-6B是一个基于 Model (GLM)架构的开源对话语言模型,支持中英双语。该模型使用了和类似的技术进行优化,经过1T标识符的中英双语训练,同时辅以监督微调、反馈自助和人类反馈强化学习等技术,共有62亿参数。
-6B由清华大学 KEG 实验室和智谱AI共同开发,通过模型量化技术,用户可以在消费级显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。
-6B可以简单的理解为本地私有部署的弱化版。
经过多次尝试,xiaoz终于成功地在 10上运行了-6B对话语言模型。在此记录并分享整个过程。
阅读基础
本文适合对人工智能感兴趣的研究人员阅读,需要一定的编程基础和计算机基础。如果您熟悉编程语言,那就更能够更好地理解本文。
硬件 & 软件准备
-6B对软硬件都有一定的要求,以下是xiaoz的硬件信息:
软件环境:
这篇文章假设您有具有一定的编程基础和计算机基础,因此并不会详细介绍上述软件工具的安装和使用,如果您对此并不熟悉,建议直接放弃阅读。
部署-6B
-6B已在开源:
首先需要使用Git克隆代码:
git clone
接下来我将pip设置为了阿里镜像源,方便我之后的步骤能更顺利的安装各种依赖库,命令为:
pip set .index-url pip set .-host
然后进入-6B目录,在命令行安装需要的依赖,执行命令:
pip -r .txt
接下来是下载模型,由于xiaoz的显卡比较弱,所以xiaoz这里选择了 4-bit量化模型,建议提前下载好模型,内置的脚本下载很容易失败,且速度较慢。
作者将模型托管在“ Face Hub”,我们需要先从上面下载模型,xiaoz这里选择的“4-bit量化模型”,执行的命令如下:
git clone -b int4
这里面.bin文件比较大,如果您git命令拉取较慢,或者失败了,可以尝试手动下载.bin,然后放到本地仓库目录即可。
注意:这里存在一个坑,你不能只下载.bin文件,需要将里面的.json/.py等文件一起下载并放到一个目录,建议是Git拉取整个仓库,然后手动下载.bin合并到一个文件夹下。
运行-6B
进入终端,我们开始运行-6B模型,执行的命令如下:
# 指定模型的位置,就是你在 Face Hub上克隆下来那个模型=”D:/apps-6Bmodelint4-6b”# 导入依赖from , = .(, =True)model = .(, =True).half().cuda()model = model.eval(), = model.chat(, “你好”, =[])print()
运行过程中,并非我想象中的那么顺利,我遇到了一个
Torch not with CUDA
这样的报错,最后参考这个:解决了。
解决办法是先执行命令:
-c ” torch; print(torch.cuda.())”
如果返回False,说明安装的不支持CUDA,然后xiaoz执行了下面的命令:
pip torch==2.0.0+cu118 ==0.15.1+cu118 -f
最后就没报错了。当然,每个人的硬件和软件都不一样,遇到的报错可能也不一样,总之灵活变通就行了。
命令行测试-6B
跑个4-bit量化模型也比较吃力,3050的8G显存很容易给我干爆,而且响应速度感觉也比较慢。(图片可点击放大)
官方仓库里面还提供了WEB和API的运行方式,WEB运行方式遇到点报错,暂时还没去解决,上述使用CLI运行方式是没问题的。
补充说明
要查看自己安装的版本,可以在交互环境中输入以下代码:
(torch.)
如果结果显示的x.x.x+cpu可能会导致不支持,参考上面的“Torch not with CUDA ”报错解决即可。
再次查看 版本,若显示+cuxxx,则说明支持 GPU,也就是说不支持 CPU 的+cpu版本不可用,只可用支持 GPU 的+cu版本。
个人感受
我与-6B进行了一些简短的对话,个人感觉效果不错。虽然整体上不如,但-6B由国内开发团队开源,并且可以在消费级显卡上运行,我必须给予好评和点赞。希望团队继续努力,迎头赶上。
-6B开源地址:
内容首发于我的独立博客:
建议前往原文阅读更佳!