11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
【新智元导读】在面对复杂的推理任务时,SFT往往让大模型显得力不从心。CMU等机构的华人团队提出了「批判性微调」方法,仅在50K样本上训练,就在大多数基准测试中优于使用超过200万个样本的强化学习方法。进一步的研究也可能包括将CFT与其他训练范式,如SFT和RL相结合,扩展到多模态环境,并研究其理论基础。
【新智元导读】由UCLA等机构共同组建的研究团队,全球首次在20亿参数非SFT模型上,成功实现了多模态推理的DeepSeek-R1「啊哈时刻」!就在刚刚,我们在未经监督微调的2B模型上,见证了基于DeepSeek-R1-Zero方法的视觉推理「啊哈时刻」!这一成就,再次让AI社区轰动。博客地址:https://turningpointai.notion.site/the-multimodal-aha-moment-on-2b-model开源项目:https://github.com/turningpoint-ai/VisualThinker-R1-ZeroDeepSeek-R1的独特推理能力,能成功扩展到多模态推理领域吗?UCLA等机构的研究者发现,虽然目前已经涌现出许多试图复现DeepSeek-R1的研究,然这些研究大多遭遇了这个难点:很难复现出R1所表现出的回答长度增加和思考模式。在台湾大学获得硕士学位,导师是Chih-JenLin教授。