当前位置: 代码网 > 科技>人工智能>智能机器人 > 月之暗面 Kimi 开放平台将启动 Context Caching 内测:提供预设内容 QA Bot、固定文档集合查询

月之暗面 Kimi 开放平台将启动 Context Caching 内测:提供预设内容 QA Bot、固定文档集合查询

2024年06月20日 智能机器人 我要评论
Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用

6 月 19 日消息,月之暗面官宣 kimi 开放平台 context caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能

图片

▲ 图源 kimi 开放平台官方公众号,下同

据介绍,context caching(上下文缓存)是由 kimi 开放平台提供的一项高级功能,可通过缓存重复的 tokens 内容,降低用户在请求相同内容时的成本,原理如下:

图片

官方表示,context caching 提升 api 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,context caching 功能带来的收益越大。

context caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

  • 提供大量预设内容的 qa bot,例如 kimi api 小助手。

  • 针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

  • 对静态代码库或知识库的周期性分析,例如各类 copilot agent。

  • 瞬时流量巨大的爆款 ai 应用,例如哄哄模拟器,llm riddles。

  • 交互规则复杂的 agent 类应用,例如什么值得买 kimi+ 等。

官方后续将发布 context caching 功能的场景最佳实践 / 计费方案 / 技术文档,代码网将保持关注,并在第一时间带来相关报道。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com