当前位置: 代码网 > 科技>人工智能>机器学习 > 新手教程之使用LLaMa-Factory微调LLaMa3

新手教程之使用LLaMa-Factory微调LLaMa3

2024年07月31日 机器学习 我要评论
如果你尝试过微调大模型,你就会知道,大模型的环境配置是非常繁琐的,需要安装大量的第三方库和依赖,甚至需要接入一些框架。但是大模型微调的方法又是非常类似的,那有没有一种工具可以统一这些操作,让大模型微调变成一个简单易上手的事情,LLaMa-Factory就是为了解决这个问题应运而生

为什么要用llama-factory

如果你尝试过微调大模型,你就会知道,大模型的环境配置是非常繁琐的,需要安装大量的第三方库和依赖,甚至需要接入一些框架。
但是大模型微调的方法又是非常类似的,那有没有一种工具可以统一这些操作,让大模型微调变成一个简单易上手的事情,llama-factory就是为了解决这个问题应运而生


什么是llama-factory

本来不想说这么多废话的,想来想去还是简单介绍一下,也加深自己的了解:
llama factory是一款支持多种llm微调方式的工具,包括预训练、指令监督微调和奖励模型训练等。它支持lora和qlora微调策略,广泛集成了业界前沿的微调方法。特点在于支持多种llm模型,提供了webui页面,使非开发人员也能方便进行微调工作。
代码地址:llama-factory


llama-factory环境搭建

  1. 克隆项目
git clone https://github.com/hiyouga/llama-factory.git
  1. 创建环境
conda create -n llama_factory python=3.10
conda activate llama_factory
  1. 安装依赖
cd llama-factory
pip install -e .[torch,metrics]
  1. 启动web ui界面
export cuda_visible_devices=0
python src/webui.py

启动成功之后,游览器会打开如下界面:
在这里插入图片描述


微调llama3

  1. 准备模型

方法一:克隆我们要微调的模型到本地,然后将在web ui界面填入我们的模型名称和本地的模型地址

git clone https://www.modelscope.cn/llm-research/meta-llama-3-8b-instruct.git

方法二:直接去魔塔meta-llama-3-8b-instruct地址复制对应的文件名和路径,微调时,程序会自动​去魔搭下载模型!
(这个方法小编浅浅试了一下,没成功,还是下载到本地靠谱)
在这里插入图片描述

  1. 准备数据集

llama-factory项目内置了丰富的数据集,统一存储于data目录下。
如果你想基于自己的数据集微调,你需要
(1)将你的数据集也放到data目录下
注意:你需要将你的数据集改为一样的格式,具体可参考data下内置数据集的格式
这里提供一个小编基于looksjuicy/ruozhiba数据集改好的一个数据集:

(2)修改data下的dataset_info.json文件,添加如下内容:
其中my_data.json是我自己的数据集文件,my_data是对应的数据集文件名

"my_data": {
    "file_name": "my_data.json"
  },

添加到第一层大括号内的第一个元素前,也就是identity前面

  1. 微调

这里我直接通过web ui界面进行微调
在这里插入图片描述

训练需要二十分钟左右,训练完成之后,会出现下述界面:
左下角会显示训练完毕,右边会出现训练过程中损失变化的一个可视化

在这里插入图片描述

  1. 与微调之后的模型对话

在这里插入图片描述
这样看来,使用llama-factory微调确实很简单方便!!!


参考博文

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com