2月22日,谷歌在官网宣布,开源大语言模型gemma。
gemma与谷歌最新发布的gemini 使用了同一架构,有20亿、70亿两种参数,每种参数都有预训练和指令调优两个版本。
根据谷歌公布的测试显示,在mmlu、bbh、gsm8k等主流测试平台中,其70亿模型在数学、推理、代码的能力超过llama-2的70亿和130亿,成为最强小参数的类chatgpt模型。
目前,gemma可以商用,并且普通笔记本、台式机就能跑,无需耗费巨大的ai算力矩阵。
kaggle地址:https://www.kaggle.com/models/google/gemma/code/
huggingface地址:https://huggingface.co/models?search=google/gemma
技术报告:https://goo.gle/gemmareport
谷歌作为贡献出transformers、tensorflow、bert、t5、jax、alphafold等一系列改变世界ai发展的宗师级大师,在生成式ai领域却一直落后于openai。
不仅如此,开源领域还打不过类chatgpt开源鼻祖meta的llama系列。痛定思痛之后,谷歌决定重新加入开源阵营,以抢夺开发者和用户。
gemma简单介绍
谷歌表示,gemma之所以性能如此强悍,主要是使用了与gemini相同的技术架构。
更详细的开发者指南:https://ai.google.dev/gemma/docs?utm_source=agd&utm_medium=referral&utm_campaign=quickstart-docu
gemini的基础架构建立在transformer编码器结构之上,通过多层自注意力和前馈神经网络来建模序列依赖性。不同的是gemini采用了多查询注意力机制,可处理超复杂长文本。
具体来说,模型首先将输入序列的每个位置编码成多组查询向量。然后,将这些查询向量并行地与键值对进行批量注意力运算,得到多个注意力结果。
除了开源模型权重,谷歌还推出responsible generative ai toolkit等一系列工具,为使用gemma提供更安全的ai应用程序提供指导。
目前,gemma开放了两个版本:预训练,该版本未针对 gemma 核心数据训练集以外的任何特定任务或指令进行训练;指令微调,通过人类语言互动进行训练,可以响应对话输入,类似chatgpt聊天机器人。
跨框架、工具和硬件,对gemma进行优化
开发者可以根据自己的数据微调 gemma 模型,以适应特定的应用程序需求,例如,生成摘要/文本或检索增强生成 (rag)等。gemma 支持以下多种工具和系统:
多框架工具:可跨多框架 keras 3.0、本机 pytorch、jax 和 hugging face transformers 进行推理和微调。
跨设备兼容性:gemma可以跨多种设备类型运行,包括笔记本电脑、台式机、物联网、移动设备和云,从而实现广泛的 ai 功能。
高级硬件平台:谷歌与nvidia合作,针对 nvidia gpu 优化 gemma模型,从数据中心到云端再到本地rtx ai pc,提供行业领先的性能并与尖端ai技术集成。
针对 google cloud 进行了优化:vertex ai 提供广泛的 mlops 工具集,具有一系列调整选项,并可使用内置推理优化功能进行一键式部署。
高级定制功能可通过完全管理的顶点人工智能工具或自我管理的gke 实现,包括部署到 gpu、tpu 和 cpu 平台上具有成本效益的基础设施。
gemma性能测试
谷歌在mmlu、bbh、gsm8k等主流测试平台中,用gemma 70亿模型与llama-2、mistral在数学、推理、代码等方面进行了深度测试。
gemma的标准学术基准测试平均分数都高于同规模的llama 2和mistral模型。甚至在一些关键能力方面,高于llama-2 130亿参数模型。
也就是说,gemma是一款参数很小,性能却异常强悍的大模型。
本文素材来源谷歌官网,如有侵权请联系删除
end
发表评论