编译 | 段祎
编辑 |
芯东西3月30日消息,3月25日,据Tom’s 报道,一位名叫Les 的技术人员修改了软件开发者 写的C/C++模型llama.cpp。Les 称,使用具有8GB RAM的 Pi 4(树莓派:微型电脑主板)下载llama.cpp后,通过运行代码可以创建一个基于LLaMA(社交软件巨头Meta开发的大型语言模型)的类似的聊天机器人。
不过由于中端硬件算力方面的限制, Pi 4上的LLaMA运行缓慢,加载聊天内容可能需要几分钟时间。如果想要一个响应更快的聊天机器人,需要配备RTX 3000系列的计算机或更快的GPU。
运行像这样的聊天机器人需要强大算力GPU的支持。从诸如GPT-4、LLaMA等大型语言模型开源以来,许多相关技术人员通过再次开发程序,改变配置,使此类大型语言模型可以成功应用于消费级PC、 Pi等中端硬件上。如果追求该模型的运行速度,可以使用Linux台式机或笔记本电脑。
一、大模型对本地硬件的要求:运算效率高,内存容量大
此前,如果要想在电脑上运行,不仅需要强大的算力硬件核心,如CPU+GPU、FPGA、ASIC等,而且还需要考虑硬件的稳定性、吞吐量、运算效率等。如今,随着各大型语言模型开源,找到获取它们的路径并不难,但这些大型语言模型占用的内存依旧却非常之大。
例如LLaMa-13B包含36.3GiB(注:计算机硬盘存储单位)的主要数据、6.5GiB用于预量化的4比特模型。这需要24GB VRAM和64GB系统内存的显卡才能获取。甚至还有一个650亿参数的语言模型,需要有英伟达A100 40GB PCIe卡以及128GB的系统内存才能下载获取。
想要以16比特精度运行基本语言模型,使用英伟达的RTX 4090、RTX 3090 Ti、RTX 3090或Titan RTX显卡可以将性能发挥到最好。所有具有24GB VRAM的卡都可以用于运行具有70亿个参数的语言模型(LLaMa-7B),但很少有家庭用户可能拥有这样的显卡。
但若以8比特精度加载语言模型,就可将VRAM内存容量减半,这意味着任何具有至少10GB VRAM的显卡可以运行LLaMa-7B。以此类推,更好的是,以4比特精度加载语言模型再次将VRAM内存容量减半,从而让LLaMa-13B在10GB VRAM上工作。
▲英伟达RTX 4090(图源:Tom’s )
对硬件配置的高要求限制了其在类似树莓派这样的中端硬件上运行,但依靠 开发的C/C++模型llama.cpp,完成这个项目只需要8GB RAM的 Pi 4、具有16GB RAM运行Linux的PC、16GB或更大的格式化为NTFS的USB驱动器。
二、在 Pi 4上运行LLaMA,生成“BOb”聊天机器人
该过程的第一部分是在Linux PC上设置llama.cpp,下载LLaMA 7B模型,转换它们,然后将它们复制到USB驱动器上。同时需要使用Linux PC来转换模型,因为 Pi中的8GB RAM是不够的。具体操作如下:
1、在Linux PC上打开终端并确保安装了Git(开源的分布式版本控制软件):
2、使用Git克隆数据库:
3、安装一系列模块,这些模块将与LLaMA模型一起创建聊天机器人:
4、确保安装了G++和build ,这些是构建C程序所必须的:
5、在终端中将文件目录更改为llama.cpp:
6、构建项目文件,按回车键运行:
7、使用以下链接下载LLaMA 7B :
8、优化下载,只下载7B和文件,其他文件大小达数百GB:
▲操作图(图源:Tom’s )
9、将LLaMA 7B和分词器文件复制到/llama.cpp//。
10、在主目录中打开终端并转到llama.cpp文件夹:
11、将LLaMA 7B模型转换为ggml FP16格式。这可能需要消耗一段时间,使用16GB RAM会使速度更快。此操作将整个13GB /7B/.00.pth文件作为模型加载到RAM中。在8GB Pi 4上尝试此步骤将导致非法指令错误。
12、减少LLaMA 7B模型的大小,将模型量化为4比特:
13、将//的内容复制到USB驱动器。
最后一部分,在 Pi 4上重复llama.cpp设置,然后使用USB驱动器复制模型。然后加载一个交互式聊天会话并问“Bob”一系列问题,除了要求它编写代码。此过程中的第9步可以在 Pi 4或Linux PC上运行。
▲代码图(图源:Tom’s )
1、在桌面启动 Pi 4。
2、打开终端并确保安装了Git:
3、使用Git克隆数据库:
4、安装一系列模块,这些模块将与LLaMA模型一起创建聊天机器人:
5、确保安装了G++和build ,这些是构建C程序所必须的:
6、在终端中将文件目录更改为llama.cpp:
7、构建项目文件,按回车键运行:
8、插入USB驱动器并将文件复制到//,这将覆盖模型目录中的所有文件。
9、开始与“Bob”聊天会话。这是需要一点耐心的地方,尽管LLaMA 7B模型比其他模型占用内存更小,但对于体积本身就很小的 Pi来说,它的内存仍然较大,故加载模型可能需要几分钟时间。
10、问“Bob”一个问题,然后按Enter。
▲代码图(图源:Tom’s )
结语:借力开源大模型,中端硬件也能跑聊天机器人
聊天机器人的爆火吸引了大量用户,人们对类似的生成式AI产生了浓厚的兴趣。自社交巨头的母公司Meta最近发布全新人工智能大型语言模型LLaMA以来,研究人员和工程师都在积极探索人工智能应用和相关功能。接受了20种语言训练的LLaMA模型已经被大量开发者在生成文本、对话、总结书面材料等应用。
通过采用C/C++和语言将LLaMA模型应用在体积小巧的树莓派上,生成的“BOb”机器人便可以和用户进行简单对话,这种自我参与创建聊天机器人并不需要高算力的GPU就能运行。对于人们来说,在简单的硬件上DIY一个专属聊天机器人也不失趣味。