微博正式发布自研开源大模型Vibe Thinker,凭借 15 亿参数在国际顶级数学竞赛基准测试中击败 6710 亿参数的DeepSeek R1,准确率领先且单次“后训练”成本仅 7800 美元,比DeepSeek-R1 和MiniMax-M1 等模型低数十倍。
Vibe Thinker采用轻量化MoE架构与多轮知识蒸馏,官方称在5GB以下数学语料上即可完成高效微调,支持Hugging Face一键下载及商用许可。微博技术团队透露,模型在AIME 2025、HMMT等竞赛题库中平均得分较R1 提升3.4%,推理延迟降低42%,适用于教育、金融等实时场景。
开源版本提供PyTorch与GGUF格式,最低可在单张RTX4090 运行。微博同步开放训练脚本与数据配比方案,计划 12 月推出Vibe Thinker-Math专用数学增强版,并联合高校举办“轻量级数学挑战赛”,推动低成本高精度AI普及。
