当前位置: 代码网 > 科技>人工智能>动态 > Meta 发布基于 Code Llama 的 LLM 编译器:优化代码大小、反汇编

Meta 发布基于 Code Llama 的 LLM 编译器:优化代码大小、反汇编

2024年06月28日 动态 我要评论
Meta在HuggingFace上公开了LLM编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。

6 月 28 日消息,meta 官方在 x 平台宣布推出 llm 编译器,这是一个基于 meta code llama 构建的模型家族,具有额外的代码优化和编译器功能。这些模型可以模拟编译器,预测代码大小的最佳传递,并可反汇编代码,可以针对新的优化和编译器任务进行微调。

meta 在 huggingface 上公开了 llm 编译器的 7b 和 13b 模型,采用宽松的许可协议,允许用于研究和商业用途。

代码网附链接https://huggingface.co/collections/facebook/llm-compiler-667c5b05557fe99a9edd25cb

研究人员在论文中表示,llm 在各种软件工程和编码任务中展示其能力,然而在代码和编译器优化领域的应用仍然未被充分探索。为了解决这一问题,meta 引入了 llm 编译器,这是一个专为代码优化任务设计的预训练模型套件。

llm 编译器模型在包含 5460 亿个 llvm-ir 和汇编代码标记的庞大语料库上进行了训练,并经过指令微调以解释编译器行为,旨在为学术研究人员和行业从业者在编译器优化方面的进一步研究和开发提供一个可扩展的、具有成本效益的基础。

llm 编译器在代码大小优化方面取得了显著成果。在测试中,该模型的优化潜力达到了自动调整搜索的 77%,这一结果可以显著缩短编译时间,提高各种应用的代码效率。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com