6 月 19 日消息,中国电信人工智能研究院(teleai)和智源研究院联合发布全球首个单体稠密万亿参数语义模型 tele-flm-1t,该模型与百亿级的 52b 版本,千亿级的 102b 版本共同构成 tele-flm 系列模型。
teleai 和智源研究院基于模型生长和损失预测等技术,tele-flm 系列模型仅使用了业界普通训练方案 9% 的算力资源,基于 112 台 a800 服务器,用 4 个月完成 3 个模型总计 2.3t tokens 的训练。模型训练全程做到了零调整零重试,算力能效高且模型收敛性和稳定性好,tele-flm-1t 版本即将开源。
目前,teleflm 系列模型已经全面开源了 52b 版本,核心技术 (生长技术、最优超参预测)、训练细节 (loss 曲线、最优超参、数据配比和 grad norm 等) 均开源,开源模型下载量过万,积累超 40 万用户。
此外,中国电信在某市民生诉求场景项目上,通过引入 telechat-52b 模型能力,整体应用效果提升 40%,达到行业领先水平。
代码网附 tele-flm-52b 版本开源地址:https://huggingface.co/cofeai/tele-flm
tele-flm-chat 试用 (纯模型单轮对话版) 地址:https://modelscope.cn/studios/flm/chatflm
发表评论