首页 > 业界 > 关键词  > 大模型最新资讯  > 正文

媲美OpenAI-o3,刚刚开源模型DeepCoder,训练方法、数据集大公开

2025-04-09 08:44 · 稿源: ​ AIGC开放社区公众号

声明:本文来自于微信公众号 AIGC开放社区,作者:AIGC开放社区,授权站长之家转载发布。

今天凌晨4点,著名大模型训练平台Together AI和智能体平台Agentica,联合开源了新模型DeepCoder-14B-Preview。

该模型只有140亿参数,但在知名代码测试平台LiveCodeBench的测试分为60.6%,高于OpenAI的o1模型(59.5%),略低于o3-mini(60.9%)。在Codeforces、AIME2024上的评测数据同样非常出色,几乎与o1、o3-mini差不多。

值得一提的是,Together AI不仅开源了DeepCoder-14B模型权重,还把训练数据集、训练方法、训练日志和优化方法全部公开,帮助开发者更深度的了解这个模型所有开发流程。

图片

开源地址:https://huggingface.co/agentica-org/DeepCoder-14B-Preview

github:https://github.com/agentica-project/rllm

DeepCoder是在Deepseek-R1-Distilled-Qwen-14B基础之上,通过分布式强化学习(RL)进行了微调。

在开发过程中,研究人员首先构建了一个高质量训练数据集,包含24K个可验证的编程问题:涵盖TACOVerified问题、PrimeIntellect的SYNTHETIC-1数据集中的验证问题等。

为了确保数据质量,通过程序验证、测试过滤和去重等步骤。程序化验证,每个问题都会使用外部官方解决方案自动进行验证。会过滤数据集,只包含官方解决方案通过所有单元测试的问题。

图片

测试过滤,每个问题必须至少包含5个单元测试。重复数据删除,删除了数据集中的重复问题,以避免污染。

在代码强化学习训练中,DeepCoder使用了两种沙盒来运行单元测试并计算奖励。Together Code Interpreter是一个快速高效的环境,与RL训练直接兼容,成本低且可扩展性强,能够支持100多个并发沙盒和每分钟1000多个沙盒执行。

本地代码沙盒则是一个独立的、受保护的Python子进程,遵循官方LiveCodeBench仓库中的相同评估代码,确保了结果与现有排行榜的一致性。

在奖励函数设计方面,DeepCoder采用了稀疏结果奖励模型(ORM),避免分配部分奖励,从而防止模型通过奖励黑客行为来获取不准确的奖励信号。

奖励函数简单而明确:如果生成的代码通过所有采样单元测试,则奖励为1;否则为0。这种设计确保了模型能够专注于生成高质量的代码,而不是通过记忆测试用例来获取奖励。

图片

为了实现更稳定的训练过程,DeepCoder的训练采用了GRPO+,这是对原始GRPO算法的改进版本。

通过消除熵损失和KL损失、引入过长过滤和上限裁剪等技术,GRPO+使得模型在训练过程中能够保持稳定的熵值,避免训练崩溃,并且能够更自然地生成较长的输出,从而提高了模型的推理能力。

此外,DeepCoder-14B-Preview采用了迭代上下文扩展技术,使模型能够从较短的上下文长度开始学习,然后逐步泛化到更长的上下文。该模型的上下文窗口从16K扩展到32K,最终在64K上下文中评估时达到了60.6%的准确率。

图片

为了加速端到端的RL训练,DeepCoder团队引入并开源了verl-pipeline,这是verl的一个优化扩展。通过一次性流水线技术,DeepCoder实现了训练、奖励计算和采样的完全流水线化。

同时,奖励计算与采样交错进行,减少了奖励评估的开销。这些优化使得训练时间减少了2倍,特别是在需要运行数千个测试用例的编码任务中,显著提高了训练效率。

虽然DeepCoder刚开源但评价非常高,网友表示,这相当令人惊讶。它不仅是真正意义上的开源,而且他们还对广义信赖域策略优化算法(GRPO)进行了多项改进,并且在训练过程中为采样流水线增添了额外的效率提升。

图片

太厉害了!等不及这款模型在Ollama平台上体验了。

图片

圣诞节提前到来了。

图片

传奇!开源就应该这样。

图片

关于Together AI

Together AI成立于2022年,主打云大模型平台支持超过200种开源AI模型,包括Llama系列、DeepSeek-R1等,并优化了高速推理和模型训练的基础设施。目前拥有超过3.6万块GB200NVL72组成的超大GPU算力群。

此外,Together AI还提供模型微调、Agent智能自动化工作流和合成数据生成等,为大企业提供底层服务。

前不久,Together AI刚获得3.05亿美元的B轮融资,其估值也从去年的12.5亿美元翻倍至33亿美元。

举报

  • 相关推荐
  • 奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

    【新智元导读】代码截图泄露,满血版o3、o4-mini锁定下周!更劲爆的是,一款据称是OpenAI的神秘模型一夜爆红,每日处理高达260亿token,是Claude用量4倍。奥特曼在TED放话:将推超强开源模型,直面DeepSeek挑战。持续的创新、丰富的资源和智能AI将会无缝融入日常生活,未来一代人将会觉得当前人们又辛苦又落后。

  • OpenAI发布o3o4 mini模型,实现“看图说话”,糊图也行!

    从 GPT-5 开始,推理模型和非推理模型很有可能会整合在一起……

  • o3模型基准测试分数仅为10%,远低于OpenAI宣传的25%

    OpenAI的新AI模型o3在第一方和第三方基准测试中存在差异,引发公众对其透明度和测试实践的质疑。去年12月,o3首次亮相时声称能解答超过25%的FrontierMath问题,但实际正确率仅为2%。内部测试发现,o3能达到超过25%的准确率,但其使用的计算资源比上周OpenAI推出的模型多得多。Epoch AI发布的独立基准测试结果显示,o3的得分约为10%,远低于OpenAI宣称的25%。尽管如此,这并不意味着OpenAI的说法有误,可能是因为OpenAI使用了更强大的内部架构进行评估,并采用了更多计算资源。此外,Epoch指出其测试设置可能与OpenAI不同,并且在评估中使用了更新版本的FrontierMath。

  • 首次实现图像思考 OpenAI重磅发布o3/o4-mini:史上最强、最智能模型

    快科技4月17日消息,今日,OpenAI新款AI模型o3、o4-mini重磅发布,这是OpenAI迄今最强、最智能的模型。据了解,OpenAI o3/o4-mini首次具备真正的视觉推理能力,看图识图已经是小菜一碟了,现在还会看图思考。OpenAI o3/o4-mini能同时处理文本、图像和音频,并且能作为Agent智能体自动调用网络搜索、图像生成、代码解析等工具以及深度思考模式。通过强化学习,OpenAI训练了o3/o4-mini如何�

  • 科大讯飞星火X1“火箭”升级:性能对标OpenAI o1和DeepSeek R1

    今日,科大讯飞高级副总裁于继栋在上海AI无界智营全球”2025科大讯飞全球智能营销产品发布会上透露,讯飞星火X1将于近期再次升级。升级后的讯飞星火X1在保持原有数学任务国内领先优势的基础上,推理能力、文本生成和语言理解等通用任务方面的效果将对标业界领先的OpenAIo1和DeepSeekR1模型。科大讯飞曾宣称:这一新版本的发布,预期就可以实现数学答题和过程思维链能力全面对标甚至超过OpenAIo1。

  • OpenAI深夜上线o3满血版和o4 mini - 依旧领先。

    晚上1点,OpenAI的直播如约而至。其实在预告的时候,几乎已经等于明示了。没有废话,今天发布的就是o3和o4-mini。但是奥特曼这个老骗子,之前明明说o3不打算单独发布要融到GPT-5里面一起发,结果今天又发了。。。ChatGPT Plus、Pro和Team用户从今天开始将在模型选择器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已经变了,但是我最想要的o3pro,还要几周才能提供

  • DeepSeek梁文锋首登全球富豪榜:财富超OpenAI CEO两倍

    胡润全球富豪榜今日出炉,数据显示,全球十亿美金企业家阵营再添163位新成员,总人数达到创纪录的3442位。在科技浪潮汹涌澎湃的当下,AI领域的发展依旧势如破竹,持续加速。这五位候选人各自在不同领域展现出强大的实力和潜力,未来中国首富的归属充满了悬念与期待。

  • 刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

    Llama4重磅发布了!Meta官宣开源首个原生多模态Llama4,首次采用的MoE架构,支持12种语言,首批发布一共两款:Llama4Scout:共有1090亿参数,17B活跃参数,16个专家,1000万上下Llama4Maverick:共有4000亿参数,17B活跃参数,128个专家,100万上下文另外,2万亿参数Llama4Behemoth将在未来几个月面世,288B活跃参数,16个专家。Llama4的横空出世,成为迄今为止开源最强,多模态能力最好的模型之一。L

  • 刚刚OpenAI开源BrowseComp,重塑Agent浏览器评测

    今天凌晨2点,OpenAI开源了专门用于智能体浏览器功能的测试基准——BrowseComp。这个测试基准非常有难度,连OpenAI自己的GPT-4o、GPT-4.5准确率只有0.6%和0.9%几乎为0,即便使用带浏览器功能的GPT-4o也只有1.9%。通过使用更多的计算资源,模型可以尝试更多的搜索路径,从提高找到正确答案的概率。

  • 深度deepin 23.1正式发布!AI默认引擎切换至DeepSeek、修复超百项问题

    快科技4月16日消息,今天,深度操作系统宣布,deepin 23.1版本已正式发布。此版本聚焦于解决基础组件更新后的安装效率问题,大幅提升新用户安装体验,同时集成多项功能优化与问题修复,进一步优化系统使用。本次版本的重点改进包括内核优化、AI 默认引擎切换至DeepSeek、修复超百项用户反馈问题等,具体重点改进如下:硬件兼容性与内核优化:集成6.6/6.12内核更新、NVIDIA显卡驱动升级、Intel/AMD CPU微码更新,全面提升硬件支持与底层性能;核心功能增强:DDE新增智能镜像源管理、紧凑模式入口,全局搜索支持离线自然语言与AI处理能力;?