当前位置: 代码网 > 服务器>软件设计>开源 > LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略

LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略

2024年08月01日 开源 我要评论
​LLMs之Llama 3:Llama 3的简介、安装和使用方法、案例应用之详细攻略目录Llama 3的简介Llama 3的安装和使用方法Llama 3的案例应用Llama 3的简介2024年4月18日,Meta 重磅推出了Meta Llama 3,Llama 3是Meta最先进开源大型语言模型的下一代,包括具有80亿和700亿参数的预训练和指令微调的语言模型,能够支持广泛的应用场景。这一代Llama在一系列行业标准基准测试中展示了最

llms之llama3:llama-3的简介、安装和使用方法、案例应用之详细攻略

目录

相关文章

llms之llama:llama的简介、安装和使用方法、案例应用之详细攻略

llms之llama-2:llama-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略

llms之llama3:llama 3的简介、安装和使用方法、案例应用之详细攻略

llms之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读llama-3模型的每层代码)的简介、核心思路梳理

llms之llama 3.1:llama 3.1的简介、安装和使用方法、案例应用之详细攻略

llama 3的简介

1、llama 3的目标

2、最先进的性能

3、开发了一个新的高质量人类评估集:包含1800个提示+涵盖12个关键用例

4、四大要素:模型架构、预训练数据、扩大预训练规模、指令微调

4.1、模型架构

4.2、训练数据

4.3、扩大预训练规模:15t个token、llama 3的训练效率提高了约三倍、3d并并行化、16k个gpu

4.4、指令微调

5、对责任感的系统级方法

6、大规模部署llama 3:改进的tokenizer效率+gqa

7、llama 3的未来发展:多模态+多语言+更长窗口+更强整体能力

8、试用meta llama 3

9、模型卡:模型细节、预期用途、软硬件、训练数据、benchmarks、伦理考虑与限制

llama 3的安装和使用方法

0、模型显存大小:模型推理(需24g显卡)、模型训练(至少10g显存)

1、下载、安装、注意事项

t1、利用hugging face平台下载

t2、利用modelscope平台下载:模型大小为 15 gb,下载模型大概需要1~ 2分钟

2、快速入门

3、下载数据集

可用的训练数据

指令微调的数据集格式:遵循chatformat格式

4、模型微调&增量训练:包括官方代码微调、官方colab平台微调(llama-factory工具+unsloth优化框架)、llama-factory工具、unsloth工具(参照官方colab平台)+gpt4all框架

t1、参照官方代码直接微调

llms之llama3:基于中文指令格式数据集利用lora指令微调llama-3-8b-instruct实现对话生成推理——定义数据集(json文件,instruction-input-output)→数据预处理(分词、截断等操作,加载预分词模型并测试编码后的文本)→模型微调(创建模型并使用梯度检查点技术+配置lora参数并更新模型+配置训练参数+开始训练+保存模型)→模型推理(加载训练好的tokenizer、模型、lora权重+创建模板[instruct+user_input]+对输入文本进行分词+文本生成并解码id列表)

t2、基于colab平台(免费t4-gpu)采用llama-factory工具+unsloth优化框架实现微调:

llms之llama3:基于colab平台(免费t4-gpu)利用llama-factory的gui界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-8b-instruct-bnb-4bit模型采用alpaca数据集实现cli方式/gui傻瓜可视化方式进行lora指令微调→模型推理测试→cli方式合并权重

t3、采用llama-factory工具实现微调:采用sharegpt格式中文对话微调数据集

llms之llama3:手把手教你(只需四步)基于llama-factory的gui界面(仅支持单gpu训练)对llama-3-8b-instruct模型采用中文语料数据集(alpaca_zh、wikipedia_zh等)实现傻瓜式/可视化lora指令微调

t4、采用colab平台+unsloth工具实现微调+gpt4all框架部署gui界面并对话:参照官方代码自己实现

llms之llama3:基于colab平台(采用t4 gpu+至少37g)采用中文语料数据利用unsloth框架(速度更快/量化功能)并采用lora进行微调llama-3-8b(合并原始模型和lora模型)同时进行4位量化(16位的hf格式→16位的gguf格式→4位的gguf格式)最后将模型导出到本地

llms之llama3:基于gpt4all框架对llama-3实现模型部署并推理—通过加载训练后llama-3的gguf模型文件然后在gui界面中实现对话聊天

t5、采用firefly工具实现微调:采用firefly格式中文对话微调数据集

5、模型推理

4.1、使用预训练模型:没有为聊天或问答进行微调,但应该被提示

4.2、使用指令调整模型:可采用部署额外的分类器来过滤掉危险内容

4.3、负责任使用指南

6、模型使用:以llama-3-8b-instruct为例

t1、与transformers一起使用

t1.1、transformers pipeline:推荐使用≥24g的nvidia显卡,比如geforce rtx 3090-24g、geforce rtx 4090-24g、a100-40gb、a800-40g、a40-48g、v100-32g等

t1.2、transformers automodelforcausallm

t2、与 llama3 一起使用

t3、基于langchain 框架使用

llms之llama3:基于langchain框架(需要重写构造函数和 _call 函数)集成llama-3-8b-instruct模型实现对话生成之代码实现

7、模型部署:包括fastapi、webdemo、lm studio结合lobe chat框架、ollama框架、gpt4all框架

t1、llama3-8b-instruct webdemo 部署

创建 chatbot.py 文件并,粘贴如下代码

终端运行 demo

界面显示

 t2、采用fastapi实现部署调用

llms之llama3:基于llama-3-8b-instruct模型采用fastapi实现部署调用——创建model_download.py文件下载模型→创建api.py文件实现fastapi应用→api部署→启动api服务→测试服务响应(采用curl调用测试/采用python的requests库调用测试)

t3、基于lm studio结合lobe chat框架部署

llms之llama3:手把手教你(只需三步)实现llama3模型本地部署并对话测试—基于lm studio的gui界面直接对话聊天或进一步结合lobe chat框架(更优雅的实现类似chatgpt聊天+包括丰富agent角色市场)

t4、基于ollama后端框架及其webui界面部署、ollama后端框架结合anythingllm前端框架实现rag、基于ollama后端框架结合dify前端框架实现rag

llms之llama3:手把手教你(只需四步)基于ollama框架及其webui界面对llama-3-8b模型进行docker部署(打包依赖项+简化部署过程+提高可移植性)并测试对话和图像生成功能

llms之rag:基于ollama框架(开启服务器模式+加载llms)部署llama3/phi-3等大语言模型、并结合anythingllm框架(配置参数llm preference【llm provider-chat model】 /embedding preference/vector database)实现rag功能(包括本地文档和抓取网页)实现chat聊天以及本地知识库问答实战

llms之rag:基于ollama后端框架(配置phi3/llama-3模型)结合dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

t5、基于gpt4all框架及其量化后部署

llms之llama3:基于gpt4all框架对llama3实现模型部署并推理—通过加载训练后llama-3的gguf模型文件然后在gui界面中实现对话聊天

8、相关问题

llama 3的增强技术

1、大窗口技术扩展到1048k达到100万

通过合并多个lora微调的模型将llama-3扩展到100万/1048k上下文(仅需58行代码)

llms之llama-3:源代码解读merge_adapters.py(仅需58行代码)合并多个peft模型(lora技术)将llama-3扩展到100万/1048k上下文——解析命令行参数→在基础模型上循环加载lora模型→加载分词器模型→将合并后的模型以及分词器保存到指定目录或推送到模型中心

llama 3的案例应用

1、api接口调用

2、多种在线体验方式

t1、meta官网在线体验地址

t2、huggingface平台在线体验地址

t3、nvidia平台在线体验地址

t4、replicate平台在线体验


相关文章

llms之llama:llama的简介、安装和使用方法、案例应用之详细攻略

llms之llama:llama的简介、安装和使用方法、案例应用之详细攻略_chinese_calendar每年手动更新-csdn博客

llms之llama-2:llama-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略

llms之llama-2:llama-2的简介(技术细节)、安装、使用方法(开源-免费用于研究和商业用途)之详细攻略_llama2-csdn博客

llms之llama3:llama 3的简介、安装和使用方法、案例应用之详细攻略

llms之llama 3:llama 3的简介、安装和使用方法、案例应用之详细攻略-csdn博客

llms之llama3-from-scratch:llama3-from-scratch(从头开始利用pytorch来实现并解读llama-3模型的每层代码)的简介、核心思路梳理

llms之llama 3.1:llama 3.1的简介、安装和使用方法、案例应用之详细攻略

llms之llama 3.1:llama 3.1的简介、安装和使用方法、案例应用之详细攻略-csdn博客

llama 3的简介

2024年4月18日,meta 重磅推出了meta llama 3,llama 3是meta最先进开源大型语言模型的下一代,包括具有80亿700亿参数的预训练指令微调的语言模型,能够支持广泛的应用场景。这一代llama在一系列行业标准基准测试中展示了最先进的性能,并提供了新的功能,包括改进的推理能力。我们相信这些是同类中最好的开源模型,绝对如此。
llama 3模型将很快在aws、databricks、google cloud、hugging face、kaggle、ibm watsonx、microsoft azure、nvidia nim和snowflake上提供,并得到amd、aws、dell、intel、nvidia和qualcomm提供的硬件平台的支持。 meta 致力于以负责任的方式开发llama 3,并提供各种资源来帮助其他人负责任地使用它。这包括推出新的信任和安全工具,如llama guard 2、code shield和cybersec eval 2。
为了支持我们长期以来的开放方法,我们将llama 3交给了社区。我们希望启动ai堆栈下一波创新——从应用到开发者工具,再到评估和推理优化等等。我们迫不及待地想看看你的作品,并期待你的反馈。
在未来几个月,meta 预计将推出新的功能、更长的上下文窗口、额外的模型尺寸和提升的性能,并将分享llama 3的研究论文。 利用llama 3技术构建的meta ai,现在是世界上最领先的ai助手之一,可以提升你的智能并减轻你的负担——帮助你学习、完成任务、创作内容并建立联系,以充分利用每一刻。你可以在这里尝试meta ai。

官网文章(原理介绍)https://ai.meta.com/blog/meta-llama-3/

官网文章(助手应用)

github地址https://github.com/meta-llama/llama3

文档地址https://llama.meta.com/docs/model-cards-and-prompt-formats/meta-llama-3

在线体验地址https://llama.meta.com/llama3/

1、llama 3的目标

llama 3的目标是构建与当今可用的最佳专有模型相媲美的最佳开源模型。我们希望解决开发者的反馈,以提高llama 3的整体帮助性,同时继续在负责任地使用和部署llm方面发挥领导作用。我们采用开源精神,尽早且频繁地发布,以便在模型仍在开发时让社区能够获取这些模型。我们今天发布的基于文本的模型是llama 3模型集的第一批。我们近期的目标是让llama 3实现多语言和多模态,拥有更长的上下文,并继续提高核心llm能力(如推理和编码)的整体性能。

training dataparamscontext lengthgqatoken countknowledge cutoff
llama 3a new mix of publicly available online data.8b8kyes15t+2023 年 3 月
70b8kyes15t+2023 年 12 月

2、最先进的性能

我们新的80亿和700亿参数的llama 3模型在llama 2的基础上取得了重大飞跃,为这些规模的llm模型建立了新的最先进水平。得益于预训练和后训练的改进,我们预训练指令微调的模型是当今存在的8b和70b参数规模的最佳模型。我们后训练程序的改进显著降低了错误拒绝率改善了模型响应的对齐性,并增加了响应的多样性。我们还看到了在推理、代码生成和遵循指令等方面的大幅能力提升,使得llama 3更加可操纵。

请参阅计算这些评估的设置和参数的评估详细信息llama3/eval_details.md at main · meta-llama/llama3 · github

3、开发了一个新的高质量人类评估集包含1800个提示+涵盖12个关键用例

在llama 3的开发过程中,我们查看了模型在标准基准上的性能,并寻求优化现实世界的性能。为此,我们开发了一个新的高质量人类评估集。这个评估集包含1800个提示,涵盖12个关键用例:寻求建议、头脑风暴、分类、封闭式问答、编码、创意写作、提取、扮演一个角色/人物、开放式问答、推理、重写和总结。为了防止我们的模型无意中在这个评估集上过拟合,即使是我们的建模团队也没有权限访问它。下表显示了我们的评估结果与claude sonnet、mistral medium和gpt-3.5相比,在这些类别和提示上的汇总结果。
基于这个评估集的人类标注者的偏好排名突出了我们70b指令遵循模型与类似大小的竞争模型在现实世界场景中的强大性能。

4、四大要素:模型架构、预训练数据、扩大预训练规模、指令微调

为了开发一个伟大的语言模型,我们相信创新、扩展和优化简单性是重要的。我们在整个llama 3项目中采用了这一设计理念,重点关注四个关键要素:模型架构、预训练数据、扩大预训练规模和指令微调。

4.1、模型架构

与我们的设计理念一致,我们在llama 3中选择了相对标准的解码器-only的transformer架构。与llama 2相比,我们做了一些关键的改进。llama 3使用了一个拥有128k词汇量的tokenizer,更有效地编码语言,这导致模型性能大幅提升。为了提高llama 3模型的推理效率,我们在8b和70b的模型中都采用了分组查询注意力(gqa)。我们使用8,192个token的序列训练模型,并使用mask来确保自注意力不会跨越文档边界。

4.2、训练数据

为了训练最佳的语言模型,收集一个大规模、高质量的训练数据集至关重要。与我们的设计原则一致,我们在预训练数据上投入了大量资金。llama 3在超过15t的token上进行预训练,所有数据都来自公开可用的来源。我们的训练数据集比用于llama 2的数据集大了七倍,并且包括了四倍的代码。为了准备即将到来的多语言用例,超过5%的llama 3预训练数据集由高质量的非英语数据组成,覆盖了超过30种语言。然而,我们不期望在这些语言中达到与英语相同的性能水平。

为了确保llama 3训练的数据质量最高,我们开发了一系列数据过滤管道。这些管道包括使用启发式过滤器、nsfw过滤器、语义去重方法和文本分类器来预测数据质量。我们发现,llama的前几代在识别高质量数据方面出奇地好,因此我们使用llama 2生成了为llama 3提供动力的文本质量分类器的训练数据。

我们还进行了大量实验,以评估在我们的最终预训练数据集中混合不同来源数据的最佳方式。这些实验使我们能够选择一个数据混合方案,确保llama 3在包括琐碎问题、stem、编码、历史知识等各种用例中表现良好。

4.3、扩大预训练规模:15t个token、llama 3的训练效率提高了约三倍、3d并并行化、16k个gpu

为了在llama 3模型中有效利用我们的预训练数据,我们投入了大量精力来扩大预训练规模。具体来说,我们为下游基准评估开发了一系列详细的扩展法则。这些扩展法则使我们能够选择最佳数据混合方案,并就如何最佳利用我们的训练计算资源做出明智的决策。重要的是,扩展法则允许我们在实际训练模型之前预测我们最大模型在关键任务上的性能(例如,在humaneval基准上评估的代码生成——见上文)。这帮助我们确保最终模型在各种使用场景和能力上的强劲性能。

在llama 3的开发过程中,我们对扩展行为做出了几项新的观察。例如,虽然对于80亿参数模型来说,chinchilla最优的训练计算量对应于约2000亿个token,但我们发现即使模型在数据量增加两个数量级后,模型性能仍然在持续提升。在我们的80亿和700亿参数模型经过高达15t个token的训练后,它们的性能继续以对数线性方式提升。大型模型可以在较少的训练计算量下匹配这些小型模型的性能,但通常更倾向于使用小型模型,因为它们在推理过程中效率更高。

为了训练我们最大的llama 3模型,我们结合了三种类型的并行化:数据并行化、模型并行化和流水线并行化。我们最有效的实现方式在同时训练16k个gpu时,每个gpu的计算利用率超过400 tflops。我们在两个定制构建的24k gpu集群上执行了训练运行。为了最大化gpu的运行时间,我们开发了一个新的高级训练堆栈,自动化了错误检测、处理和维护。我们还大大提高了硬件的可靠性和检测机制,用于静默数据损坏,并开发了新的可扩展存储系统,减少了检查点和回滚的开销。这些改进使得整体有效训练时间超过了95%。综合来看,这些改进将llama 3的训练效率提高了约三倍,与llama 2相比。

4.4、指令微调

为了充分释放我们预训练模型在聊天用例中的潜力,我们对指令调整方法也进行了创新。我们的后训练方法是监督式微调(sft)、拒绝采样、近端策略优化(ppo)和直接策略优化(dpo)的组合。用于sft的提示质量和用于ppo和dpo的偏好排名对对齐模型的性能有巨大影响。我们在模型质量上的一些最大改进来自于仔细筛选这些数据,并对人类标注者提供的多轮质量保证进行多次审查。

通过ppo和dpo从偏好排名中学习也大大提高了llama 3在推理和编码任务上的性能。我们发现,如果你问一个模型一个它难以回答的推理问题,模型有时会产生正确的推理轨迹:模型知道如何产生正确的答案,但它不知道如何选择它。在偏好排名上进行训练使模型学会了如何选择它。

5、对责任感的系统级方法

我们设计llama 3模型旨在最大化帮助性,同时确保在负责任地部署它们方面保持行业领先。为了实现这一点,我们采用了新的、系统级的方法来负责任地开发和部署llama。我们设想llama模型是一个更广泛系统的一部分,让开发者掌握主动权。llama模型将作为开发者设计的系统的基础部分,以他们独特的最终目标为宗旨。

指令微调也在确保我们模型的安全性方面发挥着重要作用。我们的指令微调模型已经通过内部和外部努力进行了安全性红队测试(测试)。我们的红队方法利用人类专家和自动化方法生成对抗性提示,试图引出问题性响应。例如,我们应用了全面的测试来评估与化学、生物、网络安全和其他风险领域相关的误用风险。所有这些努力都是迭代的,并用于通知正在发布的模型的安全性微调。你可以在模型卡中阅读更多关于我们努力的信息。

llama guard模型旨在成为提示和响应安全的基础,并可以轻松地进行微调以根据应用程序需求创建新的分类法。作为起点,新的llama guard 2使用了最近宣布的mlcommons分类法,以支持在这一重要领域中行业标准的出现。此外,cyberseceval 2在其前身的基础上增加了衡量llm允许其代码解释器被滥用、具有攻击性网络安全能力和易受提示注入攻击的倾向的度量(在我们的技术论文中了解更多信息)。最后,我们推出了code shield,它增加了对llms生成的非安全代码进行推理时过滤的支持。这为非安全代码建议、代码解释器滥用预防和安全命令执行的风险提供了缓解措施。

随着生成式ai空间的发展速度,我们认为开放方法是将生态系统团结在一起并缓解这些潜在危害的重要方式。作为其中的一部分,我们正在更新我们的《负责任使用指南》(rug),该指南为使用llms进行负责任开发提供了全面指导。正如我们在rug中所概述的,我们建议所有输入和输出都应根据应用程序适当的内容指南进行检查和过滤。此外,许多云服务提供商提供内容审查api和其他工具用于负责任部署,我们鼓励开发者也考虑使用这些选项。

6、大规模部署llama 3:改进的tokenizer效率+gqa

llama 3很快将在包括云提供商、模型api提供商等在内的所有主要平台上可用。llama 3将无处不在。

我们的基准测试显示,tokenizer提供了改进的token效率,与llama 2相比,减少了多达15%的token。此外,group query attention (gqa)也已经加入了llama 3 8b。因此,尽管模型比llama 2 7b多10亿参数,但改进的tokenizer效率和gqa有助于保持与llama 2 7b相当的推理效率。要了解如何充分利用这些能力的示例,请查看llama recipes,它包含了所有我们的开源代码,可用于从微调到部署到模型评估。

7、llama 3的未来发展:多模态+多语言+更长窗口+更强整体能力

llama 3 8b和70b模型标志着我们计划为llama 3发布的开始。还有更多内容即将推出。
我们的最大模型超过4000亿参数,尽管这些模型仍在训练中,但我们的团队对它们的趋势感到兴奋。在未来几个月内,我们将发布多个具有新功能的新模型,包括多模态、能够用多种语言交谈更长的上下文窗口更强的整体能力。我们还将发布一篇详细的研究论文,一旦完成llama 3的训练。
为了给您一个这些模型当前训练状态的预览,我们想分享一些关于我们最大的llm模型趋势的快照。请注意,这些数据是基于llama 3仍然在训练的早期检查点,并且这些功能不包括在今天发布的模型中。

我们致力于继续增长和发展一个开放的ai生态系统,以负责任地发布我们的模型。我们长期以来一直相信,开放性会导致更好的、更安全的产品的出现,加快创新的速度,并使整体市场更加健康。这对meta来说是好事,对社会也是好事。我们以社区为先的态度对待llama 3,从今天开始,这些模型将在领先的云、托管和硬件平台上提供,未来还会有更多。

8、试用meta llama 3

我们已经将我们最新的模型整合到meta ai中,我们相信这是世界上领先的ai助手。它现在采用了llama 3技术,并将在我们的应用程序中更多国家提供。

您可以在facebook、instagram、whatsapp、messenger和网站上使用meta ai来完成任务、学习、创作和与您关心的事物建立联系。您可以在这里了解更多关于meta ai体验的信息。

访问llama 3网站下载模型并参考入门指南,了解所有可用平台的最新列表。

您很快将能够在我们的ray-ban meta智能眼镜上测试多模态的meta ai。

如往常一样,我们期待看到您将如何使用meta llama 3构建所有令人惊叹的产品和体验。

使用体验meet your new assistant: meta ai, built with llama 3 | meta

9、模型卡:模型细节、预期用途、软硬件、训练数据、benchmarks、伦理考虑与限制

请参阅model_card.md

地址llama3/model_card.md at main · meta-llama/llama3 · github

llama 3的安装和使用方法

meta的愿景是让开发者能够自定义llama 3以支持相关用例,并使其更容易采用最佳实践并改善开放生态系统。随着这个版本的发布,我们提供了新的信任和安全工具,包括更新了llama guard 2和cybersec eval 2的组件,以及推出了code shield——一个用于过滤llms生成的非安全代码的推理时护栏。

我们还与torchtune共同开发了llama 3,torchtune是一个新的pytorch原生库,用于轻松创作、微调和实验llms。torchtune提供了完全用pytorch编写的内存高效且可修改的训练配方。该库与hugging face、weights & biases、eleutherai等流行平台集成,甚至支持executorch,以便在广泛的移动和边缘设备上运行高效的推理。从提示工程到使用llama 3与langchain,我们有一个全面的入门指南,从下载llama 3到在你的生成式ai应用程序中大规模部署,全程指导。

推荐一个针对llama3汉化非常好的资源:llama3 中文仓库(聚合资料,各种网友及厂商微调、魔改版本有趣权重 & 训练、推理、评测、部署教程视频 & 文档)

github - crazyboym/llama3-chinese-chat: llama3 中文仓库(聚合资料,各种网友及厂商微调、魔改版本有趣权重 & 训练、推理、评测、部署教程视频 & 文档)

0、模型显存大小:模型推理(需24g显卡)、模型训练(至少10g显存)

  • 推理

    • fp16 模式 大概占用16g显存,推荐24g显卡使用
    • int4模式 大概占用8g显存,推荐至少10g显存使用,需要修改代码中load_in_4bit=true
  • 训练

methodbits7b13b30b70b8x7b
fullamp120gb240gb600gb1200gb900gb
full16位60gb120gb300gb600gb400gb
lora/galore/badam16位16gb32gb64gb160gb120gb
qlora8位10gb20gb40gb80gb60gb
qlora4位6gb12gb24gb48gb30gb

1、下载、安装、注意事项

meta llama 3 我们正在解锁大型语言模型的力量。我们最新的llama版本现在可供个人、创作者、研究人员和所有规模的企业使用,以便他们可以负责任地实验、创新和扩展他们的想法。这个版本包括预训练指令调整的llama 3语言模型的模型权重和起始代码——包括80亿到700亿参数的尺寸。这个仓库旨在作为一个最小示例,用于加载llama 3模型并运行推理。对于更详细的示例,请参阅llama-recipes。

获取协议

为了下载模型权重和tokenizer,请访问meta llama网站并接受我们的许可协议。

一旦您的请求得到批准,您将通过电子邮件收到一个已签名的url。然后运行download.sh脚本,在提示时传递提供的url以开始下载。

请注意,链接在24小时后过期,并且有一定数量的下载。如果您开始看到例如403: forbidden的错误,您总是可以重新请求链接。

安装依赖

先决条件:确保您已安装wget和md5sum。然后运行脚本:./download.sh。

注意事项

>> 将meta-llama-3-8b-instruct/替换为您检查点目录的路径,将meta-llama-3-8b-instruct/tokenizer.model替换为您tokenizer模型的路径。
>> –nproc_per_node应设置为您使用的模型的mp值。
>> 根据需要调整max_seq_len和max_batch_size参数。
>> 这个示例运行此仓库中的example_chat_completion.py,但您可以将其更改为不同的.py文件。

llama-recipes地址github - meta-llama/llama-recipes: scripts for fine-tuning llama2 with composable fsdp & peft methods to cover single/multi-node gpus. supports default & custom datasets for applications such as summarization & question answering. supporting a number of candid inference solutions such as hf tgi, vllm for local or cloud deployment.demo apps to showcase llama2 for whatsapp & messenger

t1、利用hugging face平台下载

我们还在hugging face上提供下载,包括transformers和原生llama3格式。要从hugging face下载权重,请按照以下步骤操作:
>> 访问其中一个仓库,例如meta-llama/meta-llama-3-8b-instruct。
>> 阅读并接受许可。一旦您的请求得到批准,您将获得访问所有llama 3模型的权限。请注意,请求可能需要长达一个小时才能处理完毕。
>> 要下载原始原生权重以使用此仓库,请点击“文件和版本”标签,并下载原始文件夹的内容。如果您已pip安装huggingface-hub,也可以从命令行下载:

huggingface-cli download meta-llama/meta-llama-3-8b-instruct --include “original/*” --local-dir meta-llama/meta-llama-3-8b-instruct

>> 要使用transformers,以下管道片段将下载并缓存权重:

import transformers
import torch
model_id = "meta-llama/meta-llama-3-8b-instruct"
pipeline = transformers.pipeline(
  "text-generation",
  model="meta-llama/meta-llama-3-8b-instruct",
  model_kwargs={"torch_dtype": torch.bfloat16},
  device="cuda",
)

t2、利用modelscope平台下载:模型大小为 15 gb,下载模型大概需要1~ 2分钟

import torch
from modelscope import snapshot_download, automodel, autotokenizer
import os

model_dir = snapshot_download('llm-research/meta-llama-3-8b-instruct', cache_dir='/root/autodl-tmp', revision='master')

2、快速入门

您可以按照以下步骤快速上手llama 3模型。这些步骤将让您在本地运行快速的推理。更多示例,请参阅llama食谱仓库。在有pytorch / cuda可用的conda环境中克隆并下载此仓库。
在顶级目录中运行:

pip install -e .

访问meta llama网站并注册以下载模型/s。
一旦注册,您将收到一封带有下载模型url的电子邮件。您需要这个url来运行download.sh脚本。
一旦收到电子邮件,导航到您的下载llama仓库并运行download.sh脚本。确保授予download.sh脚本的执行权限 在这个过程中,您将需要输入电子邮件中的url。 不要使用“复制链接”选项,而是确保手动从电子邮件中复制链接。
一旦您想要的模型/s被下载,您可以通过以下命令在本地运行模型:

torchrun --nproc_per_node 1 example_chat_completion.py \
    --ckpt_dir meta-llama-3-8b-instruct/ \
    --tokenizer_path meta-llama-3-8b-instruct/tokenizer.model \
--max_seq_len 512 --max_batch_size 6

3、下载数据集

可用的训练数据

数据集介绍
firefly-train-1.1m包含了23种常见的中文nlp任务的数据,并且构造了许多与中华文化相关的数据,如对联、作诗、文言文翻译、散文、金庸小说等。对于每个任务,由人工书写若干种指令模板,保证数据的高质量与丰富度,数据量为115万。
shareai/codechat主要包含逻辑推理、代码问答、代码生成相关语料样本。
shareai/sharegpt-chinese-english-90k优质中英文双语人机问答数据集,覆盖真实复杂场景下的用户提问。(包含大量多轮人机对话)
moss-003-sft-data由复旦大学moss团队开源的中英文多轮对话数据,包含100w中英文多轮人机对话数据
wizardlm_evol_instruct_v2_143k(纯英文)由wizardlm项目开源的英文指令微调数据集,包含143k条数据,可提升模型对复杂指令要求的遵循能力。
ruozhiba弱智吧数据问答,据说比较锻炼模型的心智能力。
school-math-0.25m由belle项目组开源的数学运算指令数据,包含25w条简单数学题目
dpo-en-zh-20k包含大量偏好对齐的问答对数据<好,差>,有助于进一步提升chat模型的对话质量,使其生成内容更加详细、适合人类偏好。
glaive-function-calling-v2-sharegpt包含大量工具函数选择、调用和具体参数数据,有助于提升模型的自主工具选择与使用能力。
agent-flan(纯英文)类型同上, 包含大量工具使用数据,有助于提升模型的工具使用能力。
agent-instruct(纯英文)类型同上, 包含大量agent演示数据,有助于提升模型的工具使用、模拟能力。
cogvlm-sft-311k(中文) 包含带图片问答数据,可以训练模型看图问答、看图生成代码能力。
sharegpt4-v(英文) 类型同上,包含带图片问答数据,可以训练模型看图问答、看图生成代码能力。
web-qa(纯英文) 包含大量(网页文章 -> 问题 -> 答案)数据,可以提升模型在rag、文档问答、网页问答等垂直场景表现能力。欢迎翻译成中文进行开源
humaneval-x(纯英文) 包含cpp、java、go、js等代码的测试数据,可以评测模型生成代码能力。
longbench(中、英文) 包含长样本问答数据,可以评测模型在输入内容比较长时候的任务能力。(长上下文)

指令微调的数据集格式:循chatformat格式

微调的模型是为对话应用程序而训练的。为了获得预期的特性和性能,需要遵循chatformat中定义的特定格式:提示以<|begin_of_text|>特殊标记开始,随后是多条消息。每个消息以<|start_header_id|>标签开头,角色系统、用户或助手,以及<|end_header_id|>标签。在双换行符\n\n之后是消息的内容。每个消息的末尾用<|eot_id|>标记。

chatformat地址https://github.com/meta-llama/llama3/blob/main/llama/tokenizer.py#l202

chatformat 类是用来格式化聊天数据的。具体格式如下:

  • 每个聊天记录开始前会有一个特殊的起始标记 <|begin_of_text|>
  • 对于每个消息,会有以下格式:
    • 消息头:由特殊标记 <|start_header_id|> 开始,接着是角色的编码(例如“用户”或“助手”),然后是特殊标记 <|end_header_id|>,最后是两个换行符的编码。
    • 消息内容:消息头之后,是消息内容的编码。
    • 每个消息结束后会有一个特殊标记 <|eot_id|>
  • 在整个对话结束后,会添加一个助手的消息头,为模型完成提供提示。
{
  "dialog": [
    {
      "role": "user",
      "content": "<|begin_of_text|><|start_header_id|>user<|end_header_id|>你好!<|eot_id|>"
    },
    {
      "role": "assistant",
      "content": "<|start_header_id|>assistant<|end_header_id|>你好,有什么我可以帮助你的吗?<|eot_id|>"
    },
    {
      "role": "assistant",
      "content": "<|start_header_id|>assistant<|end_header_id|>"  // 空字符串表示助手的回复尚未开始
    }
  ]
}

4、模型微调&增量训练:包括官方代码微调、官方colab平台微调(llama-factory工具+unsloth优化框架)、llama-factory工具、unsloth工具(参照官方colab平台)+gpt4all框架

简介

经验总结

>> llama-3没必要进行中文词表扩充但可以直接进行增量训练:llama-3的词表已经包含128k词汇,而llama-2仅有32k,因此可以不用去专门扩充词表,因为扩充后进行增量预训练可能会损害模型在15t数据上学习的通用能力,并且官方的sft、ppo、dpo本身已经足够优秀。此外,根据行业早期经验,在llama-2上扩充词表的尝试,其实并未带来预期的性能提升,建议应更多专注使用优质数据集进行训练。比如大型厂商的模型之所以在各种任务上表现良好,是因为他们建立了数据飞轮和优质数据的闭环,而外部研究者则过分关注于指标和理论。

● 但是,对于古诗词文学知识、古代知识、中文常识的增强,可以通过直接增量预训练和定制化微调(sft)来实现,无需执行扩充词表这一步骤,而是应该加强这方面的知识注入。

>> llama-3的中文能力实际上很强:虽然llama-3在线体验不佳,主要是因为网站内部系统提示(system prompt)使用的是英文。建议用户在本地部署原版llama-3模型后,使用中文提示词进行测试,比如改为”中文智者“等类似提示。

t1、参照官方代码直接微调

llms之llama3:基于中文指令格式数据集利用lora指令微调llama-3-8b-instruct实现对话生成推理——定义数据集(json文件,instruction-input-output)→数据预处理(分词、截断等操作,加载预分词模型并测试编码后的文本)→模型微调(创建模型并使用梯度检查点技术+配置lora参数并更新模型+配置训练参数+开始训练+保存模型)→模型推理(加载训练好的tokenizer、模型、lora权重+创建模板[instruct+user_input]+对输入文本进行分词+文本生成并解码id列表)

t2、基于colab平台(免费t4-gpu)采用llama-factory工具+unsloth优化框架实现微调:

llms之llama3:基于colab平台(免费t4-gpu)利用llama-factory的gui界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-8b-instruct-bnb-4bit模型采用alpaca数据集实现cli方式/gui傻瓜可视化方式进行lora指令微调→模型推理测试→cli方式合并权重

t3、采用llama-factory工具实现微调:采用sharegpt格式中文对话微调数据集

llms之llama3:手把手教你(只需四步)基于llama-factory的gui界面(仅支持单gpu训练)对llama-3-8b-instruct模型采用中文语料数据集(alpaca_zh、wikipedia_zh等)实现傻瓜式/可视化lora指令微调

t4、采用colab平台+unsloth工具实现微调+gpt4all框架部署gui界面并对话:参照官方代码自己实现

持续更新中……

llms之llama3:基于colab平台(采用t4 gpu+至少37g)采用中文语料数据利用unsloth框架(速度更快/量化功能)并采用lora进行微调llama-3-8b(合并原始模型和lora模型)同时进行4位量化(16位的hf格式→16位的gguf格式→4位的gguf格式)最后将模型导出到本地

llms之llama3:基于gpt4all框架对llama-3实现模型部署并推理—通过加载训练后llama-3的gguf模型文件然后在gui界面中实现对话聊天

t5、采用firefly工具实现微调:采用firefly格式中文对话微调数据集

持续更新中……

5、模型推理

不同的模型需要不同的模型并行(mp)值,如下所示。所有模型都支持最多8192个token的序列长度,但我们根据max_seq_len和max_batch_size的值预先分配缓存。所以请根据您的硬件设置这些值。

modelmp
8b1
70b8

4.1、使用预训练模型:没有为聊天或问答进行微调,但应该被提示

这些模型没有为聊天或问答进行微调。它们应该被提示,以便预期的答案是提示的自然延续。请参阅example_text_completion.py的一些示例。为了说明,请查看以下命令,使用llama-3-8b模型运行它(nproc_per_node需要设置为mp值):

torchrun --nproc_per_node 1 example_text_completion.py
–ckpt_dir meta-llama-3-8b/
–tokenizer_path meta-llama-3-8b/tokenizer.model
–max_seq_len 128 --max_batch_size 4 

4.2、使用指令调整模型:可采用部署额外的分类器来过滤掉危险内容

微调的模型是为对话应用程序而训练的。为了获得预期的特性和性能,需要遵循chatformat中定义的特定格式:提示以<|begin_of_text|>特殊标记开始,随后是多条消息。每个消息以<|start_header_id|>标签开头,角色系统、用户或助手,以及<|end_header_id|>标签。在双换行符\n\n之后是消息的内容。每个消息的末尾用<|eot_id|>标记。
您还可以部署额外的分类器来过滤掉被认为是危险的内容。请参阅llama-recipes repo,了解如何将安全检查器添加到推理代码的输入和输出中。
使用llama-3-8b-chat的示例:

torchrun --nproc_per_node 1 example_chat_completion.py
–ckpt_dir meta-llama-3-8b-instruct/
–tokenizer_path meta-llama-3-8b-instruct/tokenizer.model
–max_seq_len 512 --max_batch_size 6 

4.3、负责任使用指南

llama 3是一种新技术,使用时存在潜在风险。到目前为止进行的测试并未涵盖所有场景,也根本无法涵盖所有场景。为了帮助开发者应对这些风险,我们制定了负责任使用指南。

地址https://ai.meta.com/static-resource/responsible-use-guide/

6、模型使用:以llama-3-8b-instruct为例

地址:https://huggingface.co/meta-llama/meta-llama-3-8b-instruct

该存储库包含两个版本的 meta-llama-3-8b-instruct,可用于transformers 和原始 llama3 代码库。

t1、与transformers一起使用

您可以使用 transformers 流水线抽象运行会话推理,或者通过利用 auto 类与 generate() 函数。让我们看看两者的示例。

t1.1、transformers pipeline:推荐使用≥24g的nvidia显卡,比如geforce rtx 3090-24g、geforce rtx 4090-24g、a100-40gb、a800-40g、a40-48g、v100-32g等

import transformers
import torch
torch.cuda.empty_cache()


model_id = "meta-llama/meta-llama-3-8b-instruct"

pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device="auto",
)

instruction = "you are a pirate chatbot who always responds in pirate speak!"
user_input = "who are you?"

messages = [
    {"role": "system", "content": instruction},
    {"role": "user", "content": user_input},
]

prompt = pipeline.tokenizer.apply_chat_template(
    messages,
    tokenize=false,
    add_generation_prompt=true
)

terminators = [
    pipeline.tokenizer.eos_token_id,
    pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]

outputs = pipeline(
    prompt,
    max_new_tokens=256,
    eos_token_id=terminators,
    do_sample=true,
    temperature=0.6,
    top_p=0.9,
)
print(outputs[0]["generated_text"][len(prompt):])

t1.2、transformers automodelforcausallm
from transformers import autotokenizer, automodelforcausallm
import torch

model_id = "meta-llama/meta-llama-3-8b-instruct"

tokenizer = autotokenizer.from_pretrained(model_id)
model = automodelforcausallm.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

messages = [
    {"role": "system", "content": "you are a pirate chatbot who always responds in pirate speak!"},
    {"role": "user", "content": "who are you?"},
]

input_ids = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=true,
    return_tensors="pt"
).to(model.device)

terminators = [
    tokenizer.eos_token_id,
    tokenizer.convert_tokens_to_ids("<|eot_id|>")
]

outputs = model.generate(
    input_ids,
    max_new_tokens=256,
    eos_token_id=terminators,
    do_sample=true,
    temperature=0.6,
    top_p=0.9,
)
response = outputs[0][input_ids.shape[-1]:]
print(tokenizer.decode(response, skip_special_tokens=true))

t2、与 llama3 一起使用

请按照存储库中的说明进行操作
要下载原始检查点,请参见下面的示例命令,利用 huggingface-cli:

huggingface-cli download meta-llama/meta-llama-3-8b-instruct --include "original/*" --local-dir meta-llama-3-8b-instruct

对于 hugging face 支持,我们建议使用 transformers 或 tgi,但类似的命令也可以使用。

t3、基于langchain 框架使用

llms之llama3:基于langchain框架(需要重写构造函数和 _call 函数)集成llama-3-8b-instruct模型实现对话生成之代码实现

7、模型部署:包括fastapi、webdemo、lm studio结合lobe chat框架、ollama框架、gpt4all框架

t1、llama3-8b-instruct webdemo 部署

创建 chatbot.py 文件并,粘贴如下代码
# 导入所需的库
from transformers import autotokenizer, automodelforcausallm
import torch
import streamlit as st

# 在侧边栏创建标题和链接
with st.sidebar:
    st.markdown("## llama3 llm")
    "[开源大模型食用指南 self-llm](https://github.com/datawhalechina/self-llm.git)"

# 创建标题和副标题
st.title("💬 llama3 chatbot")
st.caption("🚀 由 self-llm 提供支持的 streamlit 聊天机器人")

# 定义模型路径
mode_name_or_path = '/root/autodl-tmp/llm-research/meta-llama-3-8b-instruct'

# 定义函数以获取模型和 tokenizer
@st.cache_resource
def get_model():
    # 从预训练模型获取 tokenizer
    tokenizer = autotokenizer.from_pretrained(mode_name_or_path, trust_remote_code=true)
    tokenizer.pad_token = tokenizer.eos_token
    # 从预训练模型获取模型,并设置参数
    model = automodelforcausallm.from_pretrained(mode_name_or_path, torch_dtype=torch.bfloat16).cuda()
  
    return tokenizer, model

# 构建用户输入函数
def build_input(prompt, history=[]):
    system_format = 'system\n\n{content}'
    user_format = 'user\n\n{content}'
    assistant_format = 'assistant\n\n{content}\n'
    history.append({'role': 'user', 'content': prompt})
    prompt_str = ''
    # 拼接历史对话
    for item in history:
        if item['role'] == 'user':
            prompt_str += user_format.format(content=item['content'])
        else:
            prompt_str += assistant_format.format(content=item['content'])
    return prompt_str + 'assistant\n\n'

# 加载 llama3 模型和 tokenizer
tokenizer, model = get_model()

# 如果 session_state 中没有 "messages",则创建一个包含默认消息的列表
if "messages" not in st.session_state:
    st.session_state["messages"] = []

# 遍历 session_state 中的所有消息,并在聊天界面上显示
for msg in st.session_state.messages:
    st.chat_message(msg["role"]).write(msg["content"])

# 如果用户在聊天输入框中输入内容,则执行以下操作
if prompt := st.chat_input():
    
    # 在聊天界面上显示用户的输入
    st.chat_message("user").write(prompt)
    
    # 构建输入
    input_str = build_input(prompt=prompt, history=st.session_state["messages"])
    input_ids = tokenizer.encode(input_str, add_special_tokens=false, return_tensors='pt').cuda()
    outputs = model.generate(
        input_ids=input_ids, max_new_tokens=512, do_sample=true,
        top_p=0.9, temperature=0.5, repetition_penalty=1.1, eos_token_id=tokenizer.encode('')[0]
        )
    outputs = outputs.tolist()[0][len(input_ids[0]):]
    response = tokenizer.decode(outputs)
    response = response.strip().replace('', "").replace('assistant\n\n', '').strip()

    # 将模型的输出添加到 session_state 中的 messages 列表
    st.session_state.messages.append({"role": "assistant", "content": response})
    # 在聊天界面上显示模型的输出
    st.chat_message("assistant").write(response)
    print(st.session_state)
终端运行 demo

在终端中运行以下命令,启动streamlit服务

streamlit run /root/autodl-tmp/chatbot.py --server.address 127.0.0.1 --server.port 6006
界面显示

 t2、采用fastapi实现部署调用

llms之llama3:基于llama-3-8b-instruct模型采用fastapi实现部署调用——创建model_download.py文件下载模型→创建api.py文件实现fastapi应用→api部署→启动api服务→测试服务响应(采用curl调用测试/采用python的requests库调用测试)

t3、基于lm studio结合lobe chat框架部署

llms之llama3:手把手教你(只需三步)实现llama3模型本地部署并对话测试—基于lm studio的gui界面直接对话聊天或进一步结合lobe chat框架(更优雅的实现类似chatgpt聊天+包括丰富agent角色市场)

llms之llama3:手把手教你(只需三步)实现llama3模型本地部署并对话测试—基于lm studio的gui界面直接对话聊天或进一步结合lobe chat框架(更优雅的实现类似chatgpt聊-csdn博客

t4、基于ollama后端框架及其webui界面部署、ollama后端框架结合anythingllm前端框架实现rag、基于ollama后端框架结合dify前端框架实现rag

llms之llama3:手把手教你(只需四步)基于ollama框架及其webui界面对llama-3-8b模型进行docker部署(打包依赖项+简化部署过程+提高可移植性)并测试对话和图像生成功能

llms之rag:基于ollama框架(开启服务器模式+加载llms)部署llama3/phi-3等大语言模型、并结合anythingllm框架(配置参数llm preference【llm provider-chat model】 /embedding preference/vector database)实现rag功能(包括本地文档和抓取网页)实现chat聊天以及本地知识库问答实战


llms之rag:基于ollama后端框架(配置phi3/llama-3模型)结合dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用

t5、基于gpt4all框架及其量化后部署

llms之llama3:基于gpt4all框架对llama3实现模型部署并推理—通过加载训练后llama-3的gguf模型文件然后在gui界面中实现对话聊天

8、相关问题

请通过以下方式之一报告任何软件“bug”,或其他与模型相关的问题:

报告模型问题:https://github.com/meta-llama/llama3/issues 报告模型生成的危险内容:developers.facebook.com/llama_output_feedback 报告bug和安全问题:facebook.com/whitehat/info

llama 3的增强技术

1、大窗口技术扩展到1048k达到100万

通过合并多个lora微调的模型将llama-3扩展到100万/1048k上下文(仅需58行代码)

背景痛点

llama 3作为开源之王,其原版上下文窗口仅有8k,远低于当前常见的32k到100k。

在大文本处理需求日益增长的今天,8k的窗口限制显得尤为突出。

为了解决上述问题,开源社区发挥了“定海神针”的作用。

解决方案

开源社区迅速响应,通过58行代码的修改,任何llama 3 70b的微调版本都能扩展到1048k(一百万)的上下文窗口。

>> 采用lora技术:这一扩展基于lora技术,通过提取微调模型与原版的差异来生成一个仅有800mb大小的文件。

>> 采用mergekit工具合并模型:使用mergekit工具,这个扩展后的上下文版本可以与其他同架构模型合并或并行运行,合并代码共计58行,如下所示。

原理剖析

>> 1048k上下文版本的微调模型由gradient ai公司提供,lora由开发者eric hartford制作。gradient团队在原版llama 3 70b instruct基础上继续训练,得到llama-3-70b-instruct-gradient-1048k。包括调整位置编码并采用渐进式训练方法,成功扩展了上下文长度,并在大海捞针测试中,这一微调版本达到了100%的准确率。

● 调整位置编码:用ntk-aware插值初始化rope theta的最佳调度,进行优化,防止扩展长度后丢失高频信息。

● 渐进式训练:使用uc伯克利pieter abbeel团队提出的blockwise ringattention方法扩展模型的上下文长度。

● 分层优化充分利用大型gpu集群能力:为了应对大模型训练中的网络瓶颈,团队通过自定义网络拓扑在ring attention之上分层并行化,更好地利用大型gpu集群来应对设备之间传递许多kv blocks带来的网络瓶颈,提高了33倍的训练速度。

注意事项

>> 长文本检索性能评估显示,在极端情况下处理文本中间部分的“针”时可能会出现错误。

>> 这种lora合并技术是否适用于中文微调的llama 3目前尚不明确,但中文开发者社区已经对此表示关注。

llms之llama-3:源代码解读merge_adapters.py(仅需58行代码)合并多个peft模型(lora技术)将llama-3扩展到100万/1048k上下文——解析命令行参数→在基础模型上循环加载lora模型→加载分词器模型→将合并后的模型以及分词器保存到指定目录或推送到模型中心

llama 3的案例应用

1、api接口调用

from openai import openai

client = openai(
  base_url = "https://integrate.api.nvidia.com/v1",
  api_key = "$api_key_required_if_executing_outside_ngc"
)

completion = client.chat.completions.create(
  model="meta/llama3-70b",
  messages=[{"role":"user","content":""}],
  temperature=0.5,
  top_p=1,
  max_tokens=1024,
  stream=true
)

for chunk in completion:
  if chunk.choices[0].delta.content is not none:
    print(chunk.choices[0].delta.content, end="")

2、多种在线体验方式

t1、meta官网在线体验地址

体验地址https://llama.meta.com/llama3/

t2、huggingface平台在线体验地址

体验地址https://huggingface.co/chat/conversation/6623131f499d70af9ab9f6cf

t3、nvidia平台在线体验地址

体验地址nvidia nim | llama3-70b

体验地址nvidia nim | llama3-8b

t4、replicate平台在线体验

体验地址::meta/meta-llama-3-70b-instruct – run with an api on replicate

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com