首页 > AI头条  > 正文

英伟达新开源模型 Llama-Nemotron 震撼发布,推理性能超越 DeepSeek-R1

2025-05-07 09:37 · 来源: AIbase基地

近日,英伟达正式推出了其最新开源模型系列 ——Llama-Nemotron,该系列模型不仅在推能力上超越了 DeepSeek-R1,更是在内存效率和吞吐量上实现了显著提升。根据最新发布的技术报告,Llama-Nemotron 的训练过程与众不同,采用了合成数据监督微调与强化学习的方法,以全方位提升模型的推理能力。

image.png

Llama-Nemotron 系列模型包括 LN-Nano8B、LN-Super49B 和 LN-Ultra253B。这些模型的性能在业界引发了广泛关注,尤其是 LN-Ultra,它在推理任务中表现优异,能够在单个8xH100节点上高效运行,同时支持最多128K 的上下文长度,这在大语言模型中可谓是独一无二

值得一提的是,英伟达在开源界首次推出了 “推理开关” 功能,用户只需通过系统提示词 “detailed thinking on/off” 即可轻松切换不同的推理模式。这一设计使得模型能够在日常对话与复杂的多步骤推理之间自如转换,极大地满足了不同用户的需求。

image.png

Llama-Nemotron 模型的构建分为五个阶段,首先通过神经架构搜索(NAS)优化推理效率,接着进行知识蒸馏与预训练,以恢复模型性能。随后,进行了有监督微调(SFT),结合标准指令数据与强大教师模型的推理过程,提升模型的多步骤推理能力。特别是在复杂的数学和 STEM 数据集上进行强化学习训练,使 LN-Ultra 在科学推理方面脱颖而出。

在模型架构方面,Llama-Nemotron 引入了新颖的 Puzzle 框架,能够根据硬件限制转化大语言模型为高效版本,提升计算性能。这一系列优化措施为 LN-Ultra 的推理能力奠定了坚实基础。

英伟达的 Llama-Nemotron 系列模型在推理效率、内存管理和用户交互方面的创新,标志着开源人工智能模型领域的一次重大突破。

论文地址:https://arxiv.org/pdf/2505.00949

  • 相关推荐
  • DeepSeek更新R1推理AI模型,已发布Hugging Face

    更新后的 R1 拥有 6850 亿个参数,体量庞大。由于模型规模极大,普通消费者级别的硬件很可能无法直接运行。

  • MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。

    ​不知道还有多少人记得,AI行业的六小虎。 行业内都在说,他们已经寂静好久了。 上一次相关的项目发布,还是前一段时间我写的MiniMax声音模型的更新,Speech-02。 而昨晚凌晨将近12点的时候,又是MiniMax,居然在X上,预告了他们一整周的发布计划。

  • 利用贝锐花生壳,轻松实现新版DeepSeek-R1本地部署与远程访问

    本文介绍DeepSeek-R1开源模型的本地部署方法。5月末该模型更新至0528版本,在数学计算和逻辑推理方面表现优异,同时降低了幻觉率。部署过程分为三步:1)使用Ollama一键部署模型;2)通过Docker安装Open WebUI实现图形界面交互;3)借助贝锐花生壳内网穿透技术实现安全远程访问。相比传统云部署方式,该方法更便捷安全,支持HTTPS加密传输、访问密码保护和权限控制等功能,有效防止未授权访问。整个过程简单高效,无需复杂操作或依赖云服务器,即可打造专属AI助手。

  • 有道14B低成本轻量模型“子曰3”开源,数学推理性能超越大模型

    网易有道6月23日开源国内首个专注数学教育的"子诳3"大模型系列数学模型(Confucius3-Math)。该模型在单块消费级GPU上高效运行,在多项数学推理任务中性能超越更大规模的通用模型,高考数学题测试得分达98.5分。其训练成本仅2.6万美元,推理性能是DeepSeek+R1的15倍,服务成本低至每百万token0.15美元,大幅降低教育AI应用门槛。该开源模型为教育公平提供低成本、高性能的AI�

  • GPTBots 迎来增强版 DeepSeek-R1-0528 模型

    GPTBots.ai平台宣布集成深度求索(DeepSeek)最新开源模型DeepSeek-R1-0528,该模型在推理能力上媲美OpenAI和Google的顶级模型,性能显著提升:数学竞赛准确率从70%提升至87.5%,编程性能从63.5%提升至73.3%。该模型支持JSON输出与函数调用,可无缝嵌入企业工作流,同时推出轻量级版本DeepSeek-R1-0528-Qwen3-8B,仅需16GB GPU内存即可运行。此次集成将强化GPTBots为企业提供金融、医疗、教育等领域的AI解决方案能力,助力企业构建定制化AI应用。平台秉持开源理念,采用MIT许可协议,支持商业使用与定制开发。

  • 月之暗面放王炸!开源Kimi新模型:超新版DeepSeek R1全球第一

    月之暗面推出了针对软件工程任务的全新开源代码大模型Kimi-Dev-72B。 该模型在SWE-bench Verified编程基准测试中取得了全球最高开源模型水平,以仅72B的参数量,超越了刚发布不就、参数量达671B的新版DeepSeek-R1。

  • 如何用 DeepSeek 生成备课教案

    本教程介绍如何利用AI工具DeepSeek快速生成七年级中国古代史教案。操作流程包括:1.登录DeepSeek官网;2.进入文本生成界面;3.输入详细指令,包含教学目标、重难点、教学过程等要素;4.等待AI生成教案;5.检查并调整内容。该工具能帮助教师高效完成系统化的教案设计,但生成后仍需根据实际教学需求进行适当修改和完善,最后保存为所需格式使用。

  • 国际一线水准!理想同学接入DeepSeek-R1-0528模型

    理想同学手机、网页端已正式接入DeepSeekR1-0528最新版,切换DeepSeek模型”并开启深度思考”模式即可体验最新的AI问答、创作能力。 据悉,更新后的R1模型在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如o3与Gemini-2.5-Pro。 在复杂逻辑推理、长文本处理稳定性、代码生成质量等多方面能力

  • 如何用 DeepSeek 生成星球日更内容

    本文介绍如何利用DeepSeek工具高效生成星球日更内容。主要内容包括:1.注册登录DeepSeek官网进入对话界面;2.输入精准指令获取内容,如"生成7篇藏马鸡主题的星球日更";3.对生成内容进行相关性、实用性评估;4.通过补充指令优化不满意内容。该工具能快速提供多样化素材,解决持续创作压力,经过多次调整可获得符合定位的优质内容。操作流程简单,适合自媒体运营和社群内容创作。

  • 如何用 DeepSeek 进行论文降重

    本文介绍了如何利用DeepSeek AI工具降低学术论文重复率。该工具能对重复率超标的段落进行学术化改写,在保证专业术语准确性的同时降低查重率。使用方法是:1)在DeepSeek网站输入降重指令和段落;2)可指定改写风格(如某期刊格式)或具体方向(如主动改被动句);3)审查改写结果,确保语义准确、术语恰当、逻辑连贯。若发现问题可再次优化。该工具适用于毕业论文、期刊�

今日大家都在搜的词: