LLaMA模型微调版本:斯坦福 Alpaca 详解
性能上作者对Alpaca进行了评估,与openai的text-davinct-003模型在self-instruct[2]场景下的性能表现相似。Alpaca 是 LLaMA-7B 的微调版本,使用Self-instruct[2]方式借用text-davinct-003构建了52K的数据,同时在其构建策略上做了一些修改。最终的结果是以少于$500的便宜价格获得了52K的数据,下图反映了其数据多样性,内圈是词根是动词的指令,外圈是表示目标的指令。详细的Self-instruct可以看我别的文章。
alpaca 总览
alpaca 是 llama-7b 的微调版本,使用self-instruct[2]方式借用text-davinct-003构建了52k的数据,同时在其构建策略上做了一些修改。
性能上作者对alpaca进行了评估,与openai的text-davinct-003模型在self-instruct[2]场景下的性能表现相似。所以比起成本来看,alpaca更便宜。
整体思路如下图

基于 self-instruct 的数据生成
self-instruct
self-instruct是一个利用llm来生成指令遵循数据来指令微调模型的框架,核心贡献是生成指令遵循数据。
指令数据由指令、输入、输出组成。作者的数据生成piple包含四个步骤:
1)生成任务指令,
2)确定指令是否代表分类任务,方便3区别
3)正常任务使用输入优先方法,分类任务使用输出优先的prompt指令方法生成实例
4)过滤低质量的数据。

详细的self-instruct可以看我别的文章。
alpaca
alpaca基于self-instruct,
- 改用gpt-3.5:text-davinci-003来生成指令数据(self-instruct使用的gpt-3:davinci)
- 指令生成时使用新的prompt,直接一次性生成20个任务的指令(self-instruct是迭代生成的,更费钱)
- 指令生成不区分 分类/非分类任务,可能是gpt3.5更好,不需要区别了。
- 每个指令只生成1个实例。
最终的结果是以少于$500的便宜价格获得了52k的数据,下图反映了其数据多样性,内圈是词根是动词的指令,外圈是表示目标的指令。

相关文章:
-
亲测有效的超简单任务栏Copilot图标恢复方案!无需借助软件!…
-
如果您是 Windows 预览体验成员并且喜欢尝试早期功能,那么您必须尝试 Copilot。人工智能是当今新的热门话题,无论您做什么,它都可以使您的工作更轻松。因此,请按照我在此处…
-
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也…
-
俺们微软表示,这是因为客户不清楚这两种产品之间的区别:俺们家 Copilot for Microsoft 365 是基于 Azure OpenAI 模型开发的,它将 OpenAI …
-
它不但能直接将 WebUI 中的中文提示词转换为英文,还能一键为关键词加权重,更能建立常用提示词库,这对于英语不熟练的朋友非常实用。今天的内容分为两部分,一是prompt-all-…
-
保姆级adm显卡win11搭建stable diffusion教程,GPU运算,而不是CPU运算!!!…
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论