Kimi AI 宣布对其智能助手平台的上下文缓存服务进行价格调整,费用从 10 元 / 1M tokens / 分钟降至 5 元 / 1M tokens / 分钟,降幅达 50%。
此次降价是 Kimi 在 7 月 1 日推出上下文缓存功能公测后的首次调价。上下文缓存是一种数据管理技术,允许系统预先存储会被频繁请求的大量数据或信息,从而在用户请求相同信息时,系统可以直接从缓存中提供,无需重新计算或从原始数据源中检索。
这一技术的推出,提升了 Kimi AI 的响应速度和处理效率。据官方介绍,上下文缓存功能在 API 价格不变的前提下,可为开发者降低最高 90% 的长文本旗舰大模型使用成本,并提升模型响应速度。具体来说,费用最高降低 90%,首 Token 延迟降低 83%。
市场对这一功能的反应积极。许多开发者表示,上下文缓存功能不仅降低了使用成本,还提高了开发效率。
为了保持竞争力,Kimi AI 决定对上下文缓存服务进行价格调整,将费用从 10 元 / 1M tokens / 分钟降至 5 元 / 1M tokens / 分钟。
AI 行业的高成本问题一直是制约其发展的重要因素。以 OpenAI 为例,据外媒报道,OpenAI 今年可能面临高达 50 亿美元的巨额亏损,主要原因是其运营成本飙升。OpenAI 的成本分为推理成本、训练成本和人力成本,其中推理成本和训练成本分别高达 40 亿和 30 亿美元,占总运营成本的八成以上。
为了应对这一挑战,许多 AI 公司都在寻求降低成本的方法。Kimi AI 此次降价举措正是其应对高成本挑战的一部分。通过降低上下文缓存服务的费用,Kimi AI 不仅可以吸引更多用户,还可以提高自身的市场竞争力。
Kimi AI 的市场策略不仅仅是降价。为了进一步拓展市场,Kimi AI 还推出了多项新功能和服务。例如,Kimi AI 在今年 3 月推出了新的付费模式,用户可以通过 “打赏” 模式来使用其服务。
此外,Kimi AI 还积极拓展国际市场。根据最新数据显示,Kimi AI 的用户流量已经与百度的 Ernie Bot 相媲美。

