2025 年 4 月 21 日,Sand AI 发布开源视频生成模型 MAGI-1,以其创新的自回归扩散架构和卓越性能,迅速成为生成式 AI 领域的焦点。
该模型采用 Apache 2.0 许可,代码、权重和推理工具已在 GitHub 和 Hugging Face 开放,为全球开发者提供强大创作工具。
MAGI-1 基于扩散变换器架构,引入块因果注意力、并行注意力块、Sandwich 规范化等技术创新,通过分块生成(每块 24 帧)实现高效视频生成。其独特流水线设计支持并行处理,最多可同时生成四个块,大幅提升效率。
模型通过快捷蒸馏技术,支持灵活的推理预算,并在物理行为预测和时间一致性上表现优异,适用于长篇叙事和复杂动态场景。MAGI-1 的“无限视频扩展”功能允许无缝延长视频内容,结合“秒级时间轴控制”,用户可通过逐块提示实现场景转换和精细化编辑,满足影视制作、讲故事等需求。
在图像到视频任务中,模型展现出高保真输出,原生分辨率达 1440x2568px,动作流畅、细节逼真。作为开源模型,MAGI-1 提供 Docker 部署支持,24B 参数版本需 8 张 H100 GPU,未来 4.5B 版本将适配单张 RTX 4090,降低使用门槛。
社区反馈称赞其生成质量和指令遵循能力,评分超 Kling 1.6 和 Wan 2.1,但在非现实风格内容上仍有优化空间。
在竞争激烈的视频生成领域,MAGI-1 以开源和自回归架构脱颖而出。Sand AI 计划推出更轻量化版本,并深化硬件优化,未来或推动实时生成、虚拟现实等应用。MAGI-1 的发布不仅是技术突破,更是对开源生态的贡献,有望重塑视频创作格局。
Github Page: https://github.com/SandAI-org/Magi-1
Hugging Face: https://huggingface.co/sand-ai/MAGI-1