首页 > AI头条  > 正文

谷歌新研究:合成数据助力大模型,数学推理能力提升八倍

2025-04-07 08:54 · 来源: AIbase基地

近期,谷歌、卡内基梅隆大学与 MultiOn 的研究团队联合发布了一项关于合成数据在大模型训练中应用的新研究。根据 AI 发展科研机构 Epoch AI 的报告,目前人类公开的高质量文本训练数据大约有300万亿 tokens,但随着大型模型如 ChatGPT 的快速发展,对训练数据的需求正以指数级增长,预计在2026年前这些数据将被消耗殆尽,因此合成数据逐渐成为重要的替代方案。

QQ_1743987258822.png

研究人员探索了合成数据的两种主要类型:正面数据和负面数据。正面数据是指来自高性能大模型(如 GPT-4和 Gemini1.5Pro)生成的正确问题解决方案,这些数据为模型提供了学习如何解决数学问题的示例。然而,仅依赖正面数据进行训练存在一定局限性。首先,这种方法可能无法深入揭示问题解决过程中的内在逻辑,模型可能只是通过模式匹配学习而缺乏真正的理解。其次,随着训练数据的增加,模型可能会学习到一些偶然的错误关联,导致其在处理新问题时的泛化能力下降。

因此,研究人员引入了负面数据类型。这些数据包含了被验证为错误的解题步骤,能够帮助模型识别并避免错误,增强其逻辑推理能力。尽管利用负面数据面临一定挑战,因为错误步骤可能带有误导性信息,但通过 DPO(直接偏好优化)方法进行优化,研究人员成功地使模型从错误中学习,并强调每一步解题的重要性。

DPO 方法为每个解题步骤分配一个优势值,反映该步骤相对于理想解法的价值。研究表明,高优势值步骤是正确解题的关键,而低优势值步骤则可能暗示模型推理中的问题。通过这些优势值,模型能够在强化学习的框架下动态调整其策略,以更高效地学习和改进合成数据。

为了验证合成数据的效果,研究团队在 GSM8K 和 MATH 数据集上对 DeepSeek-Math-7B、LLama2-7B 等模型进行了综合测试。结果显示,经过正面和负面合成数据预训练的大模型,其在数学推理任务上的性能提升了八倍。这一研究成果展示了合成数据在提高大模型逻辑推理能力方面的巨大潜力。

划重点:  

📊 合成数据作为替代方案,有效应对日益增长的训练数据需求。  

🧩 正面和负面数据结合,提升模型的数学推理和逻辑能力。  

🚀 研究表明,合成数据预训练后,大模型的推理能力提升了八倍。

  • 相关推荐
  • 大模型时代的新燃料|标贝科技推出大规模拟真多风格语音合成数据

    本文探讨了人工智能语音交互领域的发展现状与挑战。文章指出,大模型技术驱动下语音交互应用场景持续拓展,但面临数据质量、隐私合规等挑战。当前语音大模型训练需要TB至PB级数据,而传统数据供给模式难以满足需求。合成数据作为真实数据的重要补充,能通过参数化生成机制规避隐私风险,突破传统数据在多样性和场景覆盖上的局限性。国内外科技企业已开始广泛应用合成数据训练AI模型,如Meta的LLaMA3和微软的Phi-4模型。标贝科技推出超大规模拟真多风格语音合成数据集,包含上万小时数据,覆盖中英混合场景,支持情感合成、风格迁移等前沿任务,为虚拟偶像、数字人等元宇宙场景提供实时语音生成方案。该数据集基于32kHz高保真采样率技术,在自然度、流畅度等方面达到行业领先水平。

  • 合合信息发布“大模型加速器 2.0”,助力大模型跨越“幻觉”障碍

    近日,上海合合信息科技股份有限公司(简称“合合信息”)TextIn“大模型加速器 2.0”版本正式上线,凭借其多维度升级,为降低大模型“幻觉”风险、推动大模型精准应用提供了强大助力。训练数据是影响大模型“认知能力”的关键,合合信息“大模型加速器 2.0”基于领先的智能文档处理技术,从数据源头入手,对复杂文档的版式、布局和元素进行精准解析及结构化处理,

  • 深夜突袭,DeepSeek-Prover-V2加冕数学王者!671B数学推理逆天狂飙

    DeepSeek发布数学推理模型DeepSeek-Prover-V2,包含7B和671B两个参数版本。该模型采用"递归+强化学习"训练方法,在MiniF2F测试集上达到88.9%通过率,解决了PutnamBench中的49道题目。关键技术包括:1) 使用DeepSeek-V3分解复杂定理生成子目标;2) GRPO算法从多个候选方案中自动学习最优解;3) 通过思维链整合非形式化推理与形式化证明。模型在AIME竞赛题和教科书题目上也表现优异,7B小模型意外在部分问题上超越大模型。论文指出该方法为通向AGI提供了正确路径,未来将扩展至IMO级别数学难题。

  • 不要思考过程,推理模型能力能够更强

    UC伯克利和艾伦实验室的最新研究表明,推理模型无需依赖冗长的思考过程也能有效工作。研究人员提出的"无思考(NoThinking)"方法通过简单提示直接生成解决方案,跳过了传统推理模型中的显性思考步骤。实验证明,在低资源(低token数量、少模型参数)或低延迟情况下,NoThinking方法的表现优于传统思考方式,能减少token使用量并提高推理速度。该方法在数学问题解决、编程和形式定理证明等任务中表现优异,尤其在资源受限时优势更明显。研究还发现,结合并行计算扩展后,NoThinking能进一步提升性能,在保持准确性的同时显著降低延迟和计算成本。这一发现挑战了"推理模型必须依赖详细思考过程"的传统认知。

  • 联想发布端侧AI新技术 PC本地推理能力媲美 OpenAI-mini

    联想在Tech World大会上展示了其最新AI创新成果"联想推理加速引擎"。该引擎由联想联合清华大学、无问芯穹共同研发,专为高效AI PC设计,通过并行解码、算子融合优化及异构计算技术,显著提升本地推理速度并降低功耗。现场演示显示,搭载该引擎的AI PC解答高考数学题仅需13秒,性能媲美云端大模型但成本更低。联想CEO杨元庆表示,下一代AI PC将让用户体验到强大的本地推理能力。该技术通过软硬件协同优化,实现了推理速度提升、内存占用减少和能耗降低的显著效果。

  • 国产六大推理模型激战OpenAI?

    2025年春节前夕,DeepSeek-R1模型发布,标志着中国AI进入推理模型新时代。文章梳理了国产大模型发展历程:从2022年ChatGPT引发国内追赶OpenAI热潮,到2023年"百模大战",再到2024年"AI六小虎"格局形成。重点分析了六大国产推理模型(DeepSeek、百度、阿里、科大讯飞、字节、腾讯)的技术特点与市场表现,指出国产模型在性能上已接近GPT-4水平。特别强调科大讯飞星火X1凭借全国产化技术路线获得政企青睐,以及DeepSeek-R1以560万美元超低成本实现高性能的突破。文章还探讨了英伟达芯片断供危机下,国产全栈技术路径的重要性,认为自主可控将成为对抗国际不确定性的关键。最后指出,随着推理模型成为竞争焦点,国产大模型正从技术追随转向自主创新阶段。

  • 酒仙桥论坛 | 大模型 “燃料荒” 如何破?可信数据打造智能时代新底座

    · 首届酒仙桥论坛, 6 天 11 场分论坛“AI 马拉松”持续热跑中,聚焦人工智能“产业创新应用、生态发展和数智未来”,政、产、学、研多方力量共议AI黄金发展期的机遇与挑战,搭建务实对话桥梁,加速科技创新和产业创新融合。4月17日上午,酒仙桥论坛可信数据服务专场顺利召开。在这场以“可信数据服务”为焦点的分论坛上,产学研专家从行业洞察与业务实践出发,围�

  • 2025上海车展:BBA等成主流车企已接入豆包大模型

    2025年4月23日,第二十一届上海国际车展开幕。本届车展以"新能源"和"智能化"为核心主题,吸引近千家中外汽车企业参展,展出车辆超千辆,其中新能源车占比超七成。奔驰、奥迪、长安马自达等品牌展示了基于豆包大模型的智能座舱系统,交互效率提升50%,唤醒速度仅0.2秒。火山引擎与多家车企达成战略合作,共同推进AI大模型在智能驾驶、数字座舱等领域的�

  • AI日报:小米首个推理大模型开源Xiaomi MiMo;快手上线AI笔记工具“喵记多”;腾讯拆分AI团队

    本文汇总了AI领域最新动态:1)小米开源70亿参数大模型Xiaomi MiMo,在数学推理和代码竞赛中超越OpenAI和阿里模型;2)快手推出AI笔记工具"喵记多",简化笔记管理;3)Luma AI发布电影级镜头控制API,降低视频生成门槛;4)腾讯重组AI团队,加大语言模型研发投入;5)Anthropic为Claude引入新语音"Glassy";6)谷歌NotebookLM新增50+语言音频概述功能;7)xAI将发布Grok3.5模型;8)Meta推出独立AI助手应用挑战ChatGPT;9)OpenAI紧急修复GPT-4o"谄媚"问题;10)Mac本地AI助手Simular升级隐私保护;11)CameraBench项目帮助AI理解镜头运动;12)谷歌推出个性化语言学习AI工具。

  • 奔驰新款CLA接入豆包大模型

    4月22日,奔驰与火山引擎合作的首款国产纯电车型CLA全球首发亮相。该车搭载奔驰自研MB.OS架构,接入火山引擎大模型,支持个性化智能交互体验。智能系统可识别4种情绪并给予反馈,交互效率提升50%,唤醒仅需0.2秒。虚拟助手能解答百科问题并协助车辆功能设置。这是双方继2024年8月达成AI战略合作后落地的首款量产车型,结合生成式AI和大数据技术,为中国用户打造更智能的用车体验。

今日大家都在搜的词: