首页 > AI头条  > 正文

硅基流动升级DeepSeek-R1 等推理模型API ,支持 128K 上下文长度

2025-05-22 11:54 · 来源: AIbase基地

硅基流动(SiliconCloud)宣布对其 DeepSeek-R1等推理模型 API 进行了一次重要升级,旨在更好地满足开发者对长上下文和灵活参数配置的需求。此次升级中,多个推理模型的最大上下文长度被提升至128K,使得模型在思考时能够更加充分,输出内容也更为完整。

image.png

在此次升级中,多个知名模型,如 Qwen3、QWQ、GLM-Z1等,均支持128K 的最大上下文长度,而 DeepSeek-R1则支持96K。这一提升为复杂推理任务,如代码生成和智能体的应用提供了强有力的支持。

更为重要的是,硅基流动还引入了独立控制 “思维链” 和 “回复内容” 长度的功能。通过这种方式,开发者能够更加高效地利用模型的推理能力。最大回复长度(max_tokens)现在仅用于限制模型最终输出给用户的内容,而思维链长度(thinking_budget)则专门用来控制模型在思考阶段的 Token 使用量。这样的设计使得开发者能够根据实际任务的复杂程度,灵活调整模型的思考深度和输出长度。

以 SiliconCloud 平台的 Qwen3-14B 为例,用户可以通过设置 thinking_budget 和 max_tokens 来分别控制模型的最大思维链长度和最大回复长度。在推理过程中,若思考阶段生成的 Token 数达到 thinking_budget,Qwen3系列推理模型会强制停止思维链推理。而对于其他推理模型,则可能会继续输出思考内容。

image.png

此外,如果最大回复长度超过 max_tokens 或上下文长度超出 context_length 限制,模型输出的回复内容将会被截断,响应中的 finish_reason 字段将标记为 length,表示因长度限制而终止输出。

欲了解更多关于 API 使用的细节,用户可以访问硅基流动的官方文档。随着硅基流动的不断创新,用户体验将持续提升,更多功能也将相继推出。

https://docs.siliconflow.cn/cn/userguide/capabilities/reasoning

划重点:  

🔹 支持128K 最大上下文长度,提升模型思考和输出能力。  

🔹 独立控制思维链和回复内容长度,提高开发者灵活性。  

🔹 若达到长度限制,模型输出将会被截断,并标记原因。  

  • 相关推荐
  • DeepSeek更新R1推理AI模型,已发布Hugging Face

    更新后的 R1 拥有 6850 亿个参数,体量庞大。由于模型规模极大,普通消费者级别的硬件很可能无法直接运行。

  • MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。

    ​不知道还有多少人记得,AI行业的六小虎。 行业内都在说,他们已经寂静好久了。 上一次相关的项目发布,还是前一段时间我写的MiniMax声音模型的更新,Speech-02。 而昨晚凌晨将近12点的时候,又是MiniMax,居然在X上,预告了他们一整周的发布计划。

  • 利用贝锐花生壳,轻松实现新版DeepSeek-R1本地部署与远程访问

    本文介绍DeepSeek-R1开源模型的本地部署方法。5月末该模型更新至0528版本,在数学计算和逻辑推理方面表现优异,同时降低了幻觉率。部署过程分为三步:1)使用Ollama一键部署模型;2)通过Docker安装Open WebUI实现图形界面交互;3)借助贝锐花生壳内网穿透技术实现安全远程访问。相比传统云部署方式,该方法更便捷安全,支持HTTPS加密传输、访问密码保护和权限控制等功能,有效防止未授权访问。整个过程简单高效,无需复杂操作或依赖云服务器,即可打造专属AI助手。

  • 国际一线水准!理想同学接入DeepSeek-R1-0528模型

    理想同学手机、网页端已正式接入DeepSeekR1-0528最新版,切换DeepSeek模型”并开启深度思考”模式即可体验最新的AI问答、创作能力。 据悉,更新后的R1模型在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如o3与Gemini-2.5-Pro。 在复杂逻辑推理、长文本处理稳定性、代码生成质量等多方面能力

  • GPTBots 迎来增强版 DeepSeek-R1-0528 模型

    GPTBots.ai平台宣布集成深度求索(DeepSeek)最新开源模型DeepSeek-R1-0528,该模型在推理能力上媲美OpenAI和Google的顶级模型,性能显著提升:数学竞赛准确率从70%提升至87.5%,编程性能从63.5%提升至73.3%。该模型支持JSON输出与函数调用,可无缝嵌入企业工作流,同时推出轻量级版本DeepSeek-R1-0528-Qwen3-8B,仅需16GB GPU内存即可运行。此次集成将强化GPTBots为企业提供金融、医疗、教育等领域的AI解决方案能力,助力企业构建定制化AI应用。平台秉持开源理念,采用MIT许可协议,支持商业使用与定制开发。

  • 极速接入!百度千帆大模型平台宣布上线DeepSeek-R1-0528

    日前,DeepSeek R1模型完成小版本升级,目前最新版本为DeepSeek-R1-0528。 更新后的R1模型在复杂逻辑推理、长文本处理稳定性、代码生成质量等多方面能力大幅提升,整体表现已接近o3、Gemini-2.5-Pro等国际顶尖模型。 今晚,百度智能云千帆大模型平台宣布已正式上架DeepSeek-R1-0528大模型,企业用户和开发者登录千帆即可体验。

  • 如何用 DeepSeek 生成备课教案

    本教程介绍如何利用AI工具DeepSeek快速生成七年级中国古代史教案。操作流程包括:1.登录DeepSeek官网;2.进入文本生成界面;3.输入详细指令,包含教学目标、重难点、教学过程等要素;4.等待AI生成教案;5.检查并调整内容。该工具能帮助教师高效完成系统化的教案设计,但生成后仍需根据实际教学需求进行适当修改和完善,最后保存为所需格式使用。

  • 如何用 DeepSeek 生成星球日更内容

    本文介绍如何利用DeepSeek工具高效生成星球日更内容。主要内容包括:1.注册登录DeepSeek官网进入对话界面;2.输入精准指令获取内容,如"生成7篇藏马鸡主题的星球日更";3.对生成内容进行相关性、实用性评估;4.通过补充指令优化不满意内容。该工具能快速提供多样化素材,解决持续创作压力,经过多次调整可获得符合定位的优质内容。操作流程简单,适合自媒体运营和社群内容创作。

  • 如何用 DeepSeek 进行论文降重

    本文介绍了如何利用DeepSeek AI工具降低学术论文重复率。该工具能对重复率超标的段落进行学术化改写,在保证专业术语准确性的同时降低查重率。使用方法是:1)在DeepSeek网站输入降重指令和段落;2)可指定改写风格(如某期刊格式)或具体方向(如主动改被动句);3)审查改写结果,确保语义准确、术语恰当、逻辑连贯。若发现问题可再次优化。该工具适用于毕业论文、期刊�

  • 如何用 DeepSeek 进行合同审核

    本文介绍如何利用DeepSeek AI工具高效审核合同法律风险。合同是商业活动的重要保障,但隐藏的法律风险可能带来巨大损失。DeepSeek能快速识别合同条款中的合法性存疑、违约责任模糊、交付条款不清等问题,并提供专业修改建议。操作流程包括:1.登录DeepSeek平台;2.上传合同文件;3.输入审核指令;4.查看详细审核结果。该工具适用于企业法务、律师及商务人员,能有效规避合同风险,提高审核效率。

今日大家都在搜的词: