当前位置: 代码网 > 科技>人工智能>动态 > 中国电信发布全球首个单体稠密万亿参数语义模型 Tele-FLM-1T

中国电信发布全球首个单体稠密万亿参数语义模型 Tele-FLM-1T

2024年06月19日 动态 我要评论
Tele-FLM系列模型仅使用了业界普通训练方案9%的算力资源,基于112台A800服务器,用4个月完成3个模型总计2.3T tokens的训练。

6 月 19 日消息,中国电信人工智能研究院(teleai)和智源研究院联合发布全球首个单体稠密万亿参数语义模型 tele-flm-1t,该模型与百亿级的 52b 版本,千亿级的 102b 版本共同构成 tele-flm 系列模型。

teleai 和智源研究院基于模型生长和损失预测等技术,tele-flm 系列模型仅使用了业界普通训练方案 9% 的算力资源,基于 112 台 a800 服务器,用 4 个月完成 3 个模型总计 2.3t tokens 的训练。模型训练全程做到了零调整零重试,算力能效高且模型收敛性和稳定性好,tele-flm-1t 版本即将开源

目前,teleflm 系列模型已经全面开源了 52b 版本,核心技术 (生长技术、最优超参预测)、训练细节 (loss 曲线、最优超参、数据配比和 grad norm 等) 均开源,开源模型下载量过万,积累超 40 万用户。

此外,中国电信在某市民生诉求场景项目上,通过引入 telechat-52b 模型能力,整体应用效果提升 40%,达到行业领先水平。

代码网附 tele-flm-52b 版本开源地址:https://huggingface.co/cofeai/tele-flm

tele-flm-chat 试用 (纯模型单轮对话版) 地址:https://modelscope.cn/studios/flm/chatflm

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com