首页 > AI头条  > 正文

Kimi开放平台宣布价格调整:模型推理服务与上下文缓存双双降价

2025-04-07 16:13 · 来源: AIbase基地

4月7日,Kimi开放平台正式发布公告,宣布基于Moonshot AI一年来的技术积累和性能优化,对平台提供的模型推理服务价格进行调整,同时大幅下调上下文缓存价格。这一举措标志着Kimi开放平台在提升技术能力的同时,进一步优化用户体验,推动人工智能服务的普及与应用。

据Kimi开放平台官方介绍,此次价格调整得益于Moonshot AI在过去一年中在模型训练、推理加速及资源利用率优化方面的显著突破。通过持续的技术迭代,平台不仅提升了模型的处理效率和性能,还降低了运营成本。官方表示,这些成果让Kimi有能力将更多实惠回馈给用户,进一步降低企业与开发者接入大模型服务的门槛。

QQ20250407-161111.png

从调整内容来看,模型推理服务的价格普遍下调,降幅根据不同模型规格和使用场景有所差异。与此同时,上下文缓存价格也迎来显著下调,这一调整尤为引人注目,因为Kimi平台以超长上下文处理能力著称,此举将进一步提升用户在处理长文本任务时的成本效益。

Kimi开放平台自推出以来,以支持超长上下文输入(最高达200万字)为核心竞争力,广泛应用于文档分析、文献综述、代码复现等场景。此次上下文缓存价格的下调,意味着用户在处理复杂任务时将享受更低的成本。例如,对于需要频繁调用长文本数据的企业用户或开发者来说,这不仅能减少费用支出,还能提升开发效率。

一位长期使用Kimi API的开发者表示:“上下文缓存价格下调对我们来说是个大利好。之前处理大篇幅文档时成本较高,现在可以用更低的预算完成更多任务,性价比大幅提升。

  • 相关推荐
  • 微信,OpenAI和Kimi想一起去了:大模型的尽头依然还是社交平台

    AI圈最近弥漫着一股微妙的气息。人们似乎不再热议大语言模型的最新突破、以及AI应用的无限可能时,一些代表着未来的AI巨头,却似乎正将目光投向互联网那熟悉得不能再熟悉的角落——社交网络与社区。近期的传闻和动作颇具代表性,在大洋彼岸,手握ChatGPT和Sora等王牌的OpenAI,据称正内部测试类X的社交功能,其CEO Sam Altman甚至在私下征求反馈;而在国内,凭借长文本能力

  • AI日报:kimi宣布降价;OpenRouter发布免费模型Quasar Alpha;Midjourney V7重磅上线

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、IDC:到2028年中国人工智能投资将突破1000亿美元根据国际数据公司的预测,中国在人工智能领域的投资将显著增长,预计到2028年总投资将突破1000亿美元,年均复合增长率达到35.2%。

  • 为什么要使用MCP?MCP模型上下文协议能解决什么问题?

    在当今数字化时代,AI应用的开发和部署正面临着一个关键挑战:如何将AI技术与现有的服务和系统高效集成。为了解决这一难题,MCP应运生。AIbase的MCP资源网站还提供了详细的开发文档和教程,帮助开发者快速上手并深入学习MCP技术。

  • 秒杀同行!Kimi开源全新音频基础模型,横扫十多项基准测试,总体性能第一

    Kimi-Audio是一款开源的通用音频基础模型,在语音识别、音频理解、音频转文本、语音对话等任务中表现优异。该模型采用集成式架构设计,包含音频分词器、音频大模型和音频去分词器三大核心组件,支持多模态输入处理。在十余项音频基准测试中,Kimi-Audio均取得领先性能,如LibriSpeech ASR测试WER仅1.28%,VocalSound测试达94.85%。模型使用1300万小时多语言音频数据进行预训练,并构建了自动处理流水线生成高质量训练数据。评估结果显示,Kimi-Audio在语音识别、音乐理解、语音情感分析等任务上全面超越同类模型,在OpenAudioBench和VoiceBench对话测试中也表现最佳。目前模型代码、检查点和评估工具包已在GitHub开源。

  • 重磅!传月之暗面Kimi内测内容社区产品 预计月底上线

    快科技4月14日消息,今日,有媒体报道,月之暗面Kimi将推出首个内容社区产品,目前正在进行灰度测试,预计本月底正式上线。这款产品于去年末启动,之前一直维持小范围测试状态,是Kimi在用户体验上的最新尝试。对于相关产品的具体信息,月之暗面已在规划全新的内容功能模块,其定位类似于传统内容平台的信息流模式。对于月之暗面来说,这一战略布局不仅有望提升产

  • 1000万上下文!新开源多模态大模型,单个GPU就能运行

    今年2月初,谷歌发布的Gemini2.0Pro支持200万上下文,震惊了整个大模型领域。仅过了2个月,Meta最新开源的Llama4Scout就将上下文扩展至1000万,整整提升了5倍开启千万级时代。根据实验数据显示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等测试的数据比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

  • MCP协议是什么?Model Context Protocol模型上下文详解

    在当今快速发展的AI时代,如何高效地将AI助手与各类数据系统连接起来,成为了一个亟待解决的问题。MCP协议应运生,它是由Anthropic公司提出并开源的一种开放标准协议,通过提供一个统一的开放标准,极大地简化了AI系统与数据源之间的连接,使得AI系统能够更可靠地访问所需数据,从产生更相关、更优质的响应。通过与AIbase的紧密结合,MCP协议能够更好地发挥其优势,为AI技术的发展提供更强大的动力。

  • 刚刚,OpenAI发布GPT-4.1,性能暴涨、100万上下文

    今天凌晨1点,OpenAI进行了技术直播发布了最新模型——GPT-4.1。除了GPT-4.1之外,还有GPT4.1-Mini和GPT4.1-Nano两款模型,在多模态处理、代码能力、指令遵循、成本方面实现大幅度提升。特别是支持100万token上下文,这对于金融分析、小说写作、教育等领域帮助巨大。由于GPT-4.1的发布,OpenAI宣布将会淘汰刚发布不久的GPT-4.5,其能力可见一斑。目前,如果想体验GPT-4.1而无法通过API身�

  • 国产六大推理模型激战OpenAI?

    2025年春节前夕,DeepSeek-R1模型发布,标志着中国AI进入推理模型新时代。文章梳理了国产大模型发展历程:从2022年ChatGPT引发国内追赶OpenAI热潮,到2023年"百模大战",再到2024年"AI六小虎"格局形成。重点分析了六大国产推理模型(DeepSeek、百度、阿里、科大讯飞、字节、腾讯)的技术特点与市场表现,指出国产模型在性能上已接近GPT-4水平。特别强调科大讯飞星火X1凭借全国产化技术路线获得政企青睐,以及DeepSeek-R1以560万美元超低成本实现高性能的突破。文章还探讨了英伟达芯片断供危机下,国产全栈技术路径的重要性,认为自主可控将成为对抗国际不确定性的关键。最后指出,随着推理模型成为竞争焦点,国产大模型正从技术追随转向自主创新阶段。

  • AI日报:阿里腾讯全面支持MCP协议;阶跃星辰多模态推理模型Step-R1-V-Mini;美图WHEE图像生成模型Miracle F1

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里巴巴已宣布全面支持MCP协议腾讯紧随其后近日,中国人工智能领域迎来技术标准的变革,ModelContextProtocol成为国内AI生态的事实标准。12.英伟达发布Llama3.1NemotronUltra253B,性能�

今日大家都在搜的词: