当前位置: 代码网 > 服务器>网络>网络协议 > 腾讯混元文生图开源模型推出小显存版本,仅需6G显存即可运行

腾讯混元文生图开源模型推出小显存版本,仅需6G显存即可运行

2024年08月04日 网络协议 我要评论
7月4日,腾讯混元文生图大模型(混元DiT)宣布开源小显存版本,仅需6G显存即可运行,对使用个人电脑本地部署的开发者十分友好,该版本与LoRA、ControlNet等插件,都已适配至Diffusers库;并新增对Kohya图形化界面的支持,让开发者可以低门槛地训练个性化LoRA模型;同时,混元DiT模型升级至1.2版本,在图片质感与构图方面均有所提升。 此外,腾讯宣布混元文生图打标模型”混元Captioner“正式对外开源。该模型支持中英文双语,针...

7月4日,腾讯混元文生图大模型(混元dit)宣布开源小显存版本,仅需6g显存即可运行,对使用个人电脑本地部署的开发者十分友好,该版本与lora、controlnet等插件,都已适配至diffusers库;并新增对kohya图形化界面的支持,让开发者可以低门槛地训练个性化lora模型;同时,混元dit模型升级至1.2版本,在图片质感与构图方面均有所提升。

此外,腾讯宣布混元文生图打标模型”混元captioner“正式对外开源。该模型支持中英文双语,针对文生图场景进行专门优化,可帮助开发者快速制作高质量的文生图数据集。

相比起业界的开源打标模型,混元captioner模型能更好的理解与表达中文语义,输出的图片描述更为结构化、完整和准确,并能精准识别出常见知名人物与地标。模型还支持开发者自行补充和导入个性化的背景知识。

混元captioner模型开源之后,全球的文生图研究者、数据标注人员,均可使用混元captioner高效地提升自身图像描述质量,生成更全面、更准确的图片描述,提升模型效果。混元captioner生成的数据集不仅能用于训练基于混元dit的模型,亦可用于其他视觉模型训练。

 

模型易用性再提升,个人电脑可轻松运行

腾讯混元dit模型宣布了三大更新:推出小显存版本与kohya训练界面,并升级至1.2版本,进一步降低使用门槛的同时提升图片质量。

基于dit架构的文生图模型生成图片质感更佳,但对显存的要求却非常高,让许多开发者望而却步。这也是新版本stable diffusion模型无法快速普及的原因之一。

应广大开发者的需求,混元dit推出小显存版本,最低仅需6g显存即可运行优化推理框架,对使用个人电脑本地部署的开发者非常友好。经过与hugging face合作,小显存版本、lora与controlnet插件,都已经适配到diffusers库中。开发者无需下载原始代码,仅用简单的三行代码仅可调用,大大简化了使用成本。

同时,混元dit宣布接入kohya,让开发者可以低门槛地训练专属lora模型。

kohya是一个开源的、轻量化模型微调训练服务,提供了图形化的用户界面,被广泛用于扩散模型类文生图模型的训练。用户可以通过图形化界面,完成模型的全参精调及lora训练,无需涉及到代码层面的细节。训练好的模型符合kohya生态架构,可以低成本与 webui 等推理界面结合,实现一整套“训练-生图”工作流。

 

面向文生图、支持中英文,提升数据质量

在提升模型易用性的同时,腾讯混元团队也在开放更多的关键技术,包括此前的训练代码,最新的打标模型混元captioner。

数据集就像ai训练的教材。训练数据集的质量,影响着模型生成内容的效果。因此,文生图开发者往往需要对原始图片进行清晰、全面的标注,制作高质量的数据集,才能训练出来一个语义理解准确、绘画技艺高超的文生图大模型。

借助打标模型,开发者可以快速生成高质量数据集。具体来说,文生图开发者将原始图片集导入混元captioner,后者将生成高质量标注;也可以导入图片与原始描述,利用混元captioner过滤其中的无关信息,并完善和优化图片描述,以提高数据质量。

目前,业界对于图片描述文本的生成,主要使用通用多模态captioner模型,存在描述过于简单或繁琐(与画面描述的无关信息过多)、缺少背景知识导致无法识别知名人物和地标等问题,并且许多模型并非中文原生,中文描述不够精准。

混元captioner对图片描述进行结构化与准确度提升

混元captioner的背景知识更为完善

混元captioner模型针对文生图场景专门进行优化:构建了结构化的图片描述体系;并在模型层面,通过注入人工标注、模型输出、公开数据等多种来源提升caption描述的完整性;并注入知名文学作品形象、地标、食物、动物、中国元素与知识等大量背景知识,让模型输出的描述更为准确、完整。

混元captioner模型构建了结构化的图片描述体系

 

众多开发者关注,成最受欢迎国产dit开源模型

作为首个中文原生dit开源模型,混元dit自全面开源以来,一直持续建设生态。6月,混元dit发布的专属加速库,可将推理效率进一步提升,生图时间缩短75%;并进一步开源了推理代码;发布lora和controlnet等插件。于此同时,模型易用性大幅提升,用户可以通过hugging face diffusers快讯调用混元dit模型及其插件,或基于kohya和comfyui等图形化界面训练与使用混元dit。

目前,在众多开发者的支持下,混元dit发布不到2个月,github star数已经超过2.6k,成为最受欢迎的国产dit开源模型。

 

腾讯混元开源文生图大模型相关链接:

官网:https://dit.hunyuan.tencent.com/

代码:https://github.com/tencent/hunyuandit

模型:https://huggingface.co/tencent-hunyuan/hunyuandit

论文:https://tencent.github.io/hunyuandit/asset/hunyuan_dit_tech_report_05140553.pdf

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com