当前位置: 代码网 > 科技>人工智能>动态 > 面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

面壁智能开源“小钢炮”MiniCPM-S AI 模型,主打高效低能耗

2024年07月06日 动态 我要评论
面壁智能联合创始人、首席科学家刘知远宣布,开源主打高效低能耗的新一代“面壁小钢炮”MiniCPM-S 模型,同时发布助力开发者一键打造大模型 SuperApp 的全栈工具集 MobileCPM。

7 月 5 日消息,今天的 2024 世界人工智能大会(waic 2024)期间,面壁智能联合创始人、首席科学家刘知远宣布,开源主打高效低能耗的新一代“面壁小钢炮”minicpm-s 模型,同时发布助力开发者一键打造大模型 superapp 的全栈工具集 mobilecpm

据介绍,面壁 2024 年发布了具备 gpt-3 同等性能但参数仅为 24 亿的 minicpm-2.4b,知识密度提高了约 86 倍。面壁方面更称,这“并不是极限”—— 其持续优化 scaling law 使模型知识密度不断提升,可不断训练出计算更加高效、表现更强(参数规模降低,数值位宽降低,结构更加高效)的基础大模型。

而此次开源的 minicpm-s 采用“稀疏激活”在同等参数下减少大模型的推理能耗,稀疏度越高,每个词元(token)激活的神经元越少,大模型的推理成本和能耗就越少

minicpm-s 1.2b 采用了高度稀疏架构,通过将激活函数替换为 relu 及通过带渐进约束的稀疏感知训练,巧妙地解决了此前主流大模型在稀疏激活上面临的困境。

官方还表示,和同规模的稠密模型 minicpm 1.2b 相比,minicpm-s 1.2 具备如下特征:

  • sparse-高稀疏低能耗:在 ffn 层实现了高达 87.89% 平均稀疏度,推理算力下降 84%;

  • speed-神仙推理:更少计算,迅疾响应。纯 cpu 环境下,结合 powerinfer 推理框架,推理解码速度提升约 2.8 倍;

  • strong-无损强大性能:更少计算量,无损下游任务性能。

minicpm-s 1.2b 号称实现知识密度的“空前提升”—— 达到同规模稠密模型 minicpm 1.2b 的 2.57 倍,mistral-7b 的 12.1 倍。

代码网附开源链接:

  • 论文地址:https://arxiv.org/pdf/2402.13516.pdf

  • 模型地址:https://huggingface.co/openbmb/minicpm-s-1b-llama-format

  • powerinfer可直接运行格式:https://huggingface.co/openbmb/minicpm-s-1b-sft-gguf

此外,面壁还开源了号称业内首个端侧大模型工具集 mobilecpm,开发者可以一键集成大模型到 app,且实现“开箱即用”。其包含开源端侧大模型、sdk 开发套件及翻译、摘要等丰富的 intent,可一站式灵活定制满足不同应用场景需求的大模型 app。其为开发者提供了基础模式、精装模式、全包配件模式,默认集成面壁新一代高效稀疏架构模型 minicpm-s 1.2b。

mobilecpm 已经支持 ios 系统,版本也即将上线。附:开源地址testflight 外测地址

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com