用chatgpt编写股票模型筛选程序 多个chatgpt模型

默认分类1年前 (2023)发布 admin
2,038 0
ChatGPT国内版

简介:

Nomic AI Team 从 获得灵感,使用 GPT-3.5-Turbo API 收集了大约 800,000 个提示-响应对,创建了 430,000 个助手式提示和生成训练对,包括代码、对话和叙述。80 万对大约是羊驼的 16 倍。该模型最好的部分是它可以在 CPU 上运行,不需要 GPU。与 一样,它也是一个开源软件,可以帮助个人进行进一步的研究,而无需花费在商业解决方案上。

是如何工作的

它的工作原理类似于羊驼,基于 LLaMA 7B 模型。LLaMA 7B 和最终模型的微调模型在 437,605 个后处理助手式提示上进行了训练。

性能:

在自然语言处理中,困惑度用于评估语言模型的质量。它衡量语言模型根据其训练数据看到以前从未遇到过的新单词序列时会有多惊讶。较低的困惑值表示语言模型更擅长预测序列中的下一个单词,因此更准确。Nomic AI 团队声称他们的模型比 具有更低的困惑度。真正的准确性取决于您的提示类型。在某些情况下, 可能具有更好的准确性。

内存要求:

它可以在具有 8GB RAM 的 CPU 上运行。如果你有一台 4GB RAM 的笔记本电脑,可能是时候升级到至少 8G 了

代码:

Colab 代码可供您使用。您可以将其用作参考,根据需要进行修改,甚至按原样运行。完全由您决定如何使用代码来最好地满足您的要求。

克隆 Git 存储库

!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git

安装所需的包

cd /content/gpt4all
!python -m pip install -r requirements.txt
cd transformers
!pip install -e .
cd ../peft
!pip install -e .

训练

!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16  --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml

下载 CPU 量化的 模型检查点

cd /content/gpt4all/chat
!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin

运行会话系统

!./gpt4all-lora-quantized-linux-x86

如果您在运行除linux以外的任何其他操作系统的本地计算机上运行它,请使用下面的命令代替:

用chatgpt编写股票模型筛选程序 多个chatgpt模型

Windows (PowerShell): ./gpt4all-lora-quantized-win64.exe
Mac (M1): ./gpt4all-lora-quantized-OSX-m1
Mac (Intel): ./gpt4all-lora-quantized-OSX-intel

完整代码

!git clone --recurse-submodules https://github.com/nomic-ai/gpt4all.git
cd /content/gpt4all
!python -m pip install -r requirements.txt
cd transformers
!pip install -e .
cd ../peft
!pip install -e .
!accelerate launch --dynamo_backend=inductor --num_processes=8 --num_machines=1 --machine_rank=0 --deepspeed_multinode_launcher standard --mixed_precision=bf16  --use_deepspeed --deepspeed_config_file=configs/deepspeed/ds_config.json train.py --config configs/train/finetune.yaml
cd /content/gpt4all/chat
!wget https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin
!./gpt4all-lora-quantized-linux-x86

输出:

无法正确回答与编码相关的问题。这只是一个例子,不能据此判断准确性。它可能在其他提示中运行良好,因此模型的准确性取决于您的使用情况。此外,当我在 2 天后再次运行它时,它适用于与编码相关的问题。看来他们进一步完善了模型。

错误调试

doesn't have NCCL -如果您在Mac操作系统上遇到此问题,那是因为您的计算机上未安装 CUDA。

on 10/11 – 一些用户报告说他们在 平台上遇到了一些奇怪的错误。作为最后的手段,您可以安装适用于 Linux 的 子系统,它允许您在 机器上安装 Linux 发行版,然后可以按照上面的代码进行操作。

-J

您一定想知道这个模型如何与前一个名称相似,只是后缀为“J”。这是因为这两个模型都来自 Nomic AI 的同一个团队。唯一的区别是它现在是在GPT-J上而不是在 LLaMa 上训练的。在 GPT-J 上训练它的好处是 -J 现在是 -2 许可的,这意味着您可以将它用于商业目的,也可以轻松地在您的机器上运行。

下载安装文件

根据您的操作系统下载以下安装程序文件。安装完成后,您需要导航到安装文件夹中的“bin”目录。要启动 Chat 应用程序,请执行“bin”文件夹中的“chat”文件。该文件将在 Linux 上命名为“chat”,在 上命名为“chat.exe”,在 macOS 上命名为“chat.app”

视窗Linux苹果系统 –多莉 2

团队基于 的 模型创建了大型语言模型,随后他们在大约 15,000 条记录指令语料库上进行了微调。它遵循 2 许可,这意味着训练它的模型、训练代码、数据集和模型权重都可以作为开源使用,这样您就可以将它用于商业用途来创建您自己的自定义大型语言模型。

它具有三种尺寸 – 12B、7B 和 3B 参数。

databricks/dolly-v2-12b on pythia-12b
databricks/dolly-v2-7b  on pythia-6.9b
databricks/dolly-v2-3b  on pythia-2.8b

内存要求:多莉 2

对于具有 8 位量化的 7B 模型,它需要一个具有大约 10GB RAM 的 GPU。对于 12B 型号,它至少需要 18GB GPU vRAM。

代码:多莉2

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
  
baseModel = "databricks/dolly-v2-12b"
load_8bit = True  
tokenizer = AutoTokenizer.from_pretrained("databricks/dolly-v2-12b")
model = AutoModelForCausalLM.from_pretrained(baseModel, load_in_8bit=load_8bit, torch_dtype=torch.float16, device_map="auto")
generator = pipeline(task='text-generation', model=model, tokenizer=tokenizer)
print(generator("Python code to remove duplicates from dataframe"))

用chatgpt编写股票模型筛选程序 多个chatgpt模型

– 骆马

简介:骆马

来自加州大学伯克利分校、卡内基梅隆大学、斯坦福大学和加州大学圣地亚哥分校的研究人员团队开发了这个模型。它使用从 网站提取的聊天数据集在 LLaMA 上进行了微调。研究人员声称该模型的质量得分超过 -4 的 90%。值得注意的是,它的性能几乎与Bard持平。他们使用了羊驼的训练程序,并在多轮对话和长序列两个方面进行了进一步改进。

代码:

您可以参考这篇文章——详细指南来访问 代码和 模型的详细描述。

GPT-4 Model (羊驼 GPT-4 模型)

简介:羊驼GPT-4

您已经在本文的前一部分了解了 。在这里,一些研究人员通过在 GPT-4 数据集上训练来改进原始的羊驼模型。请记住,斯坦福大学研究人员最初的羊驼模型是基于 GPT-3 模型的。这个 GPT-4 模型是在 LLaMA 130 亿 (13B) 参数大小的模型上训练的。

代码:羊驼GPT-4

GPT-4 模型的 程序在这里解释 – GPT-4 详细指南。

-GPT(大脑-GPT)

简介:-GPT

你们中的一些人可能以前没有听说过 。他们不像以制造GPU而闻名的那样知名,但他们也是一家专门制造高性能计算系统的科技公司。他们最近发布了开源项目,其中包含七个基于 GPT 的语言模型,参数大小分别为 1.11 亿、2.56 亿、5.9 亿、13 亿、27 亿、67 亿和 130 亿。

这些模型最好的部分是它们是免费提供的,并且可以用于商业目的,因为它符合 2.0 许可,而 LLaMA 带有“非商业”许可,这意味着它们是免费的但只能用于研究目的。

此外,它们还有 7 种不同尺寸的型号可供选择,这意味着您可以根据硬件配置选择多种型号。如果您的硬件不允许试验大型模型,请选择较小的模型。

内存要求:-GPT

它需要具有 12GB RAM 的 GPU 才能运行 1.3B 参数大小的 -GPT 模型。

代码:-GPT

在下面的程序中,我们使用了由 团队开发的名为 包。它允许开发人员有效地微调不同的大型语言模型。它们还使语法非常易读且易于遵循。

在这里,我们使用微调 -GPT 模型

可参考此Colab 代码进行测试。在下面的代码中,我们使用 -GPT 1.3B 模型

安装 库

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...