首页 > 业界 > 关键词  > DeepSeek最新资讯  > 正文

DeepSeek R2来了?全新推理时Scaling论文联手清华震撼发布!

2025-04-05 09:20 · 稿源: 新智元公众号

【新智元导读】DeepSeek新论文来了!在清华研究者共同发布的研究中,他们发现了奖励模型推理时Scaling的全新方法。DeepSeek R2,果然近了。最近,DeepSeek和清华的研究者发表的这篇论文,探讨了奖励模型的推理时Scaling方法。论文地址:https://arxiv.org/abs/2504.02495现在,强化学

......

本文由站长之家合作伙伴自媒体作者“新智元公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐
  • 华为:让DeepSeek的“专家们”动起来,推理延迟降10%!

    要问最近哪个模型最火,混合专家模型(MoE,Mixture of Experts)绝对是榜上提名的那一个。 它的巧妙之处,就在于把不同的任务分配给擅长处理的专家网络,让整个系统性能得以提升。 但你知道吗? 正是这个关键的专家网络,也是严重影响系统推理性能的因素之一。 因为在大量任务来临之际(尤其是超大规模时),MoE并不是以“雨露均沾”的方式去分配——专家网络们的负�

  • DeepSeek上新!开源发布DeepSeek-Prover-V2-671B新模型

    快科技4月30日消息,今日,DeepSeek 今日在 AI 开源社区 Hugging Face 发布了一个名为 DeepSeek-Prover-V2-671B 的新模型。据介绍,DeepSeek-Prover-V2-671B 其参数量达到6710亿,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多种计算精度,方便模型更快、更省资源地训练和部署。在模型架构上,该模型使用了DeepSeek-V3架构,采用MoE(混合专家)模式,具有61层Transformer层,7168维隐藏层。同时支持超长上下文,最大位置嵌入达163840,使其能处理复杂的数学证明,并且采用了FP8量化,可通过量化技术减小模型大小,提

  • 李想回应DeepSeek爆火自己怎么过的春节:带孩子看了哪吒2

    那比较有意思的一点是,我没有上来敢跟模型团队直接聊,我先跟谢炎(理想汽车CTO)聊了一下,我说我们本身要做VLA(视觉语言行动模型),然后VLA一个很重要的计划是到今年的这个9月份的时候能够做一个非常好的语言模型出来,才能再往下去训练VLA(视觉语言行动模型)。

  • 初中老师如何用deepseek 和 Kimi无痛做课件

    本教程指导初中教师如何利用Deepseek和Kimi两款AI工具高效完成备课全流程。Deepseek用于生成教学设计方案和PPT大纲,Kimi则根据大纲快速生成精美课件。操作步骤:1)在Deepseek输入教学需求生成教学设计;2)用Deepseek生成PPT大纲;3)将大纲粘贴至Kimi PPT助手一键生成课件。该方法特别适合日常备课、临时调课需求,能大幅提升备课效率,让教师既省时又高效。

  • DeepSeek爆火100天,大厂又找回初心了

    DeepSeek R1模型发布100天后,中国AI行业竞争格局被彻底重构。该模型3个月内用户突破1.9亿,成为国内最大AI原生应用。腾讯、百度等科技大厂纷纷接入,其中腾讯元宝APP借助DeepSeek流量一度登顶苹果应用下载榜。字节和阿里选择自研路线,字节推出"深度思考"功能,阿里则专注开源模型研发。随着DeepSeek热潮减退,豆包重回下载量榜首,元宝跌出前20。科技大厂在享受DeepSee

  • Flyme AIOS 2发布:魅族Note 16首发 接入DeepSeek

    在智能交互方面,Flyme AIOS2接入DeepSeek R1满血版,具备深度思考能力,并提供三种模式供用户选择。此外,星纪魅族成为首家接入阿里云首个端到端全模态大模型通义千问Qwen - Omni的厂商,这使得系统能带来更敏捷聪明、更具拟人情感的超自然语音对话体验,正式

  • IQ 过百的 AI 模型名单发布ChatGPT、Deepseek等上榜

    人工智能IQ哪家强?o3 智商高达 132、Gemini 2.5 Pro Exp. 拿下 128 分、Claude 凭借 3.7 Sonnet Extended 位列第四、Deepsee R 1……

  • DeepSeek们越来越聪明,却也越来越不听话了。

    ​在今年,DeepSeek R1火了之后。 几乎快形成了一个共识,就是: AI推理能力越强,执行任务时就应该越聪明。 从2022年Chain-of-Thought横空出世,到今天Gemini2.5Pro、OpenAI o3、DeepSeek-R1、Qwen3,这些旗舰模型的统治性表现,我们一直相信,让模型先想一想,是一个几乎不会出错的策略。 不过,这种聪明,也会带来一些副作用。 就是提示词遵循能力,变得越来越差。 换句话说,就是

  • 华为鸿蒙电脑接入DeepSeek:生产力更强

    官方介绍,鸿蒙电脑历经五年布局,集结10000多名顶尖工程师,联合20多家研究所,积累超2700项核心专利。

  • 深夜突袭,DeepSeek-Prover-V2加冕数学王者!671B数学推理逆天狂飙

    DeepSeek发布数学推理模型DeepSeek-Prover-V2,包含7B和671B两个参数版本。该模型采用"递归+强化学习"训练方法,在MiniF2F测试集上达到88.9%通过率,解决了PutnamBench中的49道题目。关键技术包括:1) 使用DeepSeek-V3分解复杂定理生成子目标;2) GRPO算法从多个候选方案中自动学习最优解;3) 通过思维链整合非形式化推理与形式化证明。模型在AIME竞赛题和教科书题目上也表现优异,7B小模型意外在部分问题上超越大模型。论文指出该方法为通向AGI提供了正确路径,未来将扩展至IMO级别数学难题。