chatgpt微调后的模型保留时间 Cursor太强了,从零开始写ChatGLM大模型的微调代码

默认分类1年前 (2023)发布 admin
3,518 0
ChatGPT国内版

引用[1]:I’m not with the lora or the model. Can you more or about what you’re to do? 引用[2]:介绍: 为方便学习,对添加了lora实现,并对代码做了逐行解读,核心的部分如数据的解析,loss的定义,lable制作,lora调用的框架流程等。 git链接 – -/-LoRA: -6B添加了LoRA实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成 论文链接 核心的流程 。 引用[3]:You can the class with your own model and the as . As for using Lora , I’m not sure what you mean by that. Can you more or ? 引用[4]:LoRA is a for low-power, long-range using the . It is not to the model. If you want to use LoRA for fine- the model, you would need to more on how you to use it and what or you are to make. 问题: 代码生成回答: 对于代码的生成,我不熟悉lora库或模型。

chatgpt微调后的模型保留时间 Cursor太强了,从零开始写ChatGLM大模型的微调代码

如果你能提供更多关于你想要做什么的信息或背景,我可以给出更多的帮助。[1]如果你是指生成代码的方法,你可以参考上的-LoRA项目,该项目对添加了lora实现,并提供了代码解读和核心流程的说明。[2]但是请注意,lora库是用于低功耗、远距离通信的,与模型并没有直接关联。如果你想要使用lora对模型进行微调,你需要提供更多关于你打算如何使用lora以及你希望进行的具体修改或适应的信息。[3][4]#### 引用[.]- *1* *3* [太强了,从零开始写大模型的微调代码]()[=”” data–click={“spm”:”1018.2226.3001.9630″,”extra”:{“”:””,””:”..none-task-cask-2~all~~-1-null.142^v91^,239^v3^”}} ] [.]- *2* [-LoRA实现&代码逐行讲解]()[=”” data–click={“spm”:”1018.2226.3001.9630″,”extra”:{“”:””,””:”..none-task-cask-2~all~~-1-null.142^v91^,239^v3^”}} ] [.][ . ]

chatgpt微调后的模型保留时间 Cursor太强了,从零开始写ChatGLM大模型的微调代码

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...