当前位置: 代码网 > 科技>人工智能>机器学习 > 俄罗斯科技巨头 Yandex 宣布开源“YaFSDP”大语言模型训练工具:大幅提升 GPU 利用率,对 Llama 3 可实现 26% 加速

俄罗斯科技巨头 Yandex 宣布开源“YaFSDP”大语言模型训练工具:大幅提升 GPU 利用率,对 Llama 3 可实现 26% 加速

2024年06月12日 机器学习 我要评论
俄罗斯科技巨头 Yandex 推出了一款开源的大语言模型训练工具 ——YaFSDP,号称与现有工具相比速度最高可提升 26%。

6 月 11 日消息,俄罗斯科技巨头 yandex 推出了一款开源的大语言模型训练工具 ——yafsdp,号称与现有工具相比速度最高可提升 26%。

据介绍,yafsdp 在训练速度方面优于传统的 fsdp 方法,尤其适用于大型模型。在预训练 llm 方面,yafsdp 速度提高了 20%,并且在高内存压力条件下表现更佳。

例如,yafsdp 对具有 700 亿参数的 llama 2 可以实现 21% 的效率提升,对具有同级参数的 llama 3 也实现 了 26% 的效率提升。代码网附官方数据一览:

模型gpu-countseq-lennum-ckpt-layersspeedup
llama 2 7b64204809.92%
llama 2 7b64409603.43%
llama 2 7b64819202.68%
llama 2 7b128204809.57%
llama 2 7b128409602.42%
llama 2 7b128819202.32%
llama 2 13b1282048012.10%
llama 2 13b128409603.49%
llama 2 34b1282048020.70%
llama 2 34b2562048021.99%
llama 2 34b256409658.35%
llama 2 70b25620481021.48%
llama 2 70b2564096507.17%
llama 3 8b642048011.91%
llama 3 8b64409607.86%
llama 3 70b25620482026.60%

yandex 表示,通过优化 gpu 使用率,yafsdp 可以为开发者和公司节省大量资金 —— 每月可能节省数十万美元。

yandex 的资深开发人员、yafsdp 团队成员之一 mikhail khruschev 还提到,“目前,我们正在积极尝试各种模型架构和参数大小,以扩展 yafsdp 的通用性” 。

参考资料:

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com