当前位置: 首页 > 资讯 > 科技 > 月之暗面Kimi开放平台即将内测Context Caching:预设QA机器人与文档集查询功能引期待
  • 0
  • 0
  • 分享

月之暗面Kimi开放平台即将内测Context Caching:预设QA机器人与文档集查询功能引期待

Kimi大模型 2024-06-20 10:33:34 爱吃爆米花

近日消息,月之暗面公司正式透露,其Kimi开放平台即将迎来重大更新,启动备受瞩目的Context Caching功能内测项目。此次升级核心在于引入长文本大模型支持,实现高效上下文缓存机制,从而大幅度提升交互式AI服务的响应速度与连续对话的连贯性。

据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:

官方表示,Context Caching 可提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带来的收益越大。

Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

提供大量预设内容的 QA Bot,例如 Kimi API 小助手。

针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

对静态代码库或知识库的周期性分析,例如各类 Copilot Agent。

瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles。

交互规则复杂的 Agent 类应用,例如什么值得买 Kimi+ 等。

官方后续将发布 Context Caching 功能的场景最佳实践 / 计费方案 / 技术文档。

来源:it之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/57594.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换