首页 > AI头条  > 正文

英伟达新开源模型 Llama-Nemotron 震撼发布,推理性能超越 DeepSeek-R1

2025-05-07 09:37 · 来源: AIbase基地

近日,英伟达正式推出了其最新开源模型系列 ——Llama-Nemotron,该系列模型不仅在推能力上超越了 DeepSeek-R1,更是在内存效率和吞吐量上实现了显著提升。根据最新发布的技术报告,Llama-Nemotron 的训练过程与众不同,采用了合成数据监督微调与强化学习的方法,以全方位提升模型的推理能力。

image.png

Llama-Nemotron 系列模型包括 LN-Nano8B、LN-Super49B 和 LN-Ultra253B。这些模型的性能在业界引发了广泛关注,尤其是 LN-Ultra,它在推理任务中表现优异,能够在单个8xH100节点上高效运行,同时支持最多128K 的上下文长度,这在大语言模型中可谓是独一无二

值得一提的是,英伟达在开源界首次推出了 “推理开关” 功能,用户只需通过系统提示词 “detailed thinking on/off” 即可轻松切换不同的推理模式。这一设计使得模型能够在日常对话与复杂的多步骤推理之间自如转换,极大地满足了不同用户的需求。

image.png

Llama-Nemotron 模型的构建分为五个阶段,首先通过神经架构搜索(NAS)优化推理效率,接着进行知识蒸馏与预训练,以恢复模型性能。随后,进行了有监督微调(SFT),结合标准指令数据与强大教师模型的推理过程,提升模型的多步骤推理能力。特别是在复杂的数学和 STEM 数据集上进行强化学习训练,使 LN-Ultra 在科学推理方面脱颖而出。

在模型架构方面,Llama-Nemotron 引入了新颖的 Puzzle 框架,能够根据硬件限制转化大语言模型为高效版本,提升计算性能。这一系列优化措施为 LN-Ultra 的推理能力奠定了坚实基础。

英伟达的 Llama-Nemotron 系列模型在推理效率、内存管理和用户交互方面的创新,标志着开源人工智能模型领域的一次重大突破。

论文地址:https://arxiv.org/pdf/2505.00949

  • 相关推荐
  • Llama 4大模型跌落神坛:作弊刷榜、代码能力极差、和DeepSeek比就是伪开源

    被寄予厚望的美国Meta公司的最新开源大模型Llama4发布不到2天时间,口碑急转直下,被质疑为刷榜作弊实际效果差、开源条件多部署门槛高是伪开源等。大模型评测平台LMArena亲自下场发文,打脸Meta提供给平台的Llama4是“特供版”。Meta若继续在商业控制与技术开放之间摇摆,恐将在AI竞赛中进一步失去开发者支持。

  • 超越DeepSeek-R1英伟达开源新王登顶,14万H100小时训练细节全曝光

    英伟达发布开源Llama-Nemotron系列模型,性能超越DeepSeek-R1。该系列包含三个版本:8B、49B和253B参数模型,其中253B的Ultra版本在推理吞吐量和内存效率上表现突出。关键技术包括:1)采用神经架构搜索优化模型结构;2)通过知识蒸馏和持续预训练提升性能;3)结合合成数据监督微调;4)在STEM领域进行大规模强化学习训练。Ultra版本在GPQA基准测试中达到开源模型最高水平,单节点8xH100即可高效运行。模型创新性支持"推理开关"功能,通过指令动态切换推理模式。训练流程包含五阶段优化,最终模型在数学推理和通用任务上均表现优异,部分基准超越专有模型。

  • 反击DeepSeek失败!Llama 4效果不好,Meta承认有问题

    今天凌晨1点半,Meta生成式AI领导者AhmadAl-Dahle在社交平台发布了一篇长文,对前天刚开源的Llama4质疑进行了官方回应。Ahmad表示,Llama4一开发完就发布了,所以,不同服务中模型质量难免会有一些差异。由于关税大战的原因,Meta的股票遭遇重创,他们也需要一个利好消息来拉升股票,现在适得其反。

  • 实锤了,Llama 4重测排名掉至32名!远不及DeepSeek和Qwen

    LMArena更新了Meta最新发布的开源大模型Llama-4-Maverick的排名,从此前的第2名,直线掉到了第32名!这也实锤了此前开发者对Meta为刷榜排名向LMArena提供了“特供版”的Llama4大模型的质疑。开源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名为32名,远低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至连英伟达基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

  • DeepSeek上新!开源发布DeepSeek-Prover-V2-671B新模型

    快科技4月30日消息,今日,DeepSeek 今日在 AI 开源社区 Hugging Face 发布了一个名为 DeepSeek-Prover-V2-671B 的新模型。据介绍,DeepSeek-Prover-V2-671B 其参数量达到6710亿,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多种计算精度,方便模型更快、更省资源地训练和部署。在模型架构上,该模型使用了DeepSeek-V3架构,采用MoE(混合专家)模式,具有61层Transformer层,7168维隐藏层。同时支持超长上下文,最大位置嵌入达163840,使其能处理复杂的数学证明,并且采用了FP8量化,可通过量化技术减小模型大小,提

  • 奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

    【新智元导读】代码截图泄露,满血版o3、o4-mini锁定下周!更劲爆的是,一款据称是OpenAI的神秘模型一夜爆红,每日处理高达260亿token,是Claude用量4倍。奥特曼在TED放话:将推超强开源模型,直面DeepSeek挑战。持续的创新、丰富的资源和智能AI将会无缝融入日常生活,未来一代人将会觉得当前人们又辛苦又落后。

  • 三星电视接入DeepSeek-R1 AI本土化交互能力再升级

    近日,三星电视正式接入DeepSeek-R1,AI能力进一步得到强化。据悉,用户无需复杂的操作步骤,唤醒智能语音助手三星小贝,在对应的语音助手对话页面内,即可便捷体验深度思考功能。三星电视融合DeepSeek大模型矩阵,通过强化学习、蒸馏技术等提升深度思考与推理能力,使得电视能够更准确地理解用户深层的意图和需求,为用户提供更流畅、更简单、更自然的交互与服务体�

  • 142页长文揭秘DeepSeek-R1「思维大脑」,开启全新「思维链学」研究

    DeepSeek-R1是一款开创性的大型推理模型(LRM),其研究揭示了AI推理能力的质变。该模型通过多阶段训练流程,将推理过程内嵌于模型本身,实现了从"提示驱动"到"内生推理"的模式转变。研究团队通过142页报告详细分析了R1的思维链,发现其推理过程具有高度结构化特征,包含问题定义、绽放周期、重构周期和最终决策四个阶段。模型展现出类人推理能力,能通过分

  • IQ 过百的 AI 模型名单发布:ChatGPTDeepseek等上榜

    人工智能IQ哪家强?o3 智商高达 132、Gemini 2.5 Pro Exp. 拿下 128 分、Claude 凭借 3.7 Sonnet Extended 位列第四、Deepsee R 1……

  • 超过ChatGPTDeepseek?谷歌发布 Gemini 2.5 Flash AI 模型

    新版AI模型缩短了响应时间,节约了运算成本;还推出了新的AI芯片“Ironwood”。谷歌发布了新的AI模型“Gemini2.5Flash”,据称,这款AI模型的性能比OpenAI和DeepSeek的AI产品“更高效”。谷歌计划在三星今年上半年推出的AI伴侣机器人Ballie上搭载生成式AI模型。

今日大家都在搜的词: