首页 > AI头条  > 正文

Wan2.5-Preview 发布,实现多模态输入与电影级视频同步生成

2025-09-24 13:56 · 来源: AIbase基地

今天,Wan2.5-Preview 正式发布,这款全新的 AI 模型凭借其革命性的架构和强大功能,旨在重塑视觉生成的未来。新模型在多模态处理、视频生成和图像编辑方面均取得了显著突破。

原生多模态架构与深度对齐

Wan2.5-Preview 采用了全新的统一理解和生成框架,实现了对文本、图像、视频和音频的灵活输入与输出。通过对这些模态数据进行联合训练,模型能够实现更强的模态对齐,这是实现视听同步和精确遵循指令的关键。此外,该模型还通过**人类反馈强化学习(RLHF)**进行优化,以确保生成的图像质量和视频动态符合人类审美偏好。

QQ20250924-135532.png

视频功能:视听同步与电影级美学

在视频生成方面,Wan2.5-Preview 带来了多项革新:

  • 同步 A/V 生成:原生支持高保真、高一致性的视频生成,并且能同步生成包括多人声、音效和背景音乐(BGM)在内的音频。

  • 可控多模态输入:用户可以使用文本、图像和音频作为输入源,实现无限的创意组合。

  • 电影级美学:模型生成的1080p 高清10秒视频拥有强大的动态和结构稳定性,并升级了电影控制系统,可创作出具有电影美感的作品。

图像功能:创意与精确控制

Wan2.5-Preview 在图像生成和编辑方面也大幅提升:

  • 高级图像生成:模型显著改进了对指令的遵循能力,能够生成逼真的图像、多样的艺术风格、创意排版以及专业的图表。

  • 图像编辑:支持对话式、基于指令的图像编辑,并能实现像素级精度,用于多概念融合、材质转换和产品颜色交换等复杂任务。

Wan2.5-Preview 的发布标志着 AI 视觉生成技术进入了一个新的阶段,其强大的多模态能力和精确的控制功能,将为开发者和创作者提供前所未有的工具。

  • 相关推荐
  • AI日报:接入MJ!夸克发布造点AI;Wan2.5-Preview发布;可灵推最新视频生成模型可灵2.5Turbo

    近日AI领域迎来多项重要更新:阿里夸克发布AI创作平台“造点”,整合通义万相Wan2.5与Midjourney V7,支持音画同步视频生成;Wan2.5-Preview实现多模态输入与电影级视频同步生成,提升视觉创作能力;可灵AI推出视频生成模型2.5Turbo并降价30%,降低使用门槛;阿里通义推出Qwen3-ASR-Toolkit,实现小时级音视频转录;谷歌相册AI编辑功能扩展至安卓用户,支持语音修图;谷歌Mixboard工具助力创意设计,生成情绪板;Qwen发布Qwen3-Max模型,在代码生成与智能体能力表现突出;Figma推出MCP服务器,实现设计到代码的一键转换,提升开发效率。

  • Sora 2生成已故名人视频引亲属不满 OpenAI回应:重视反馈 将迅速纠正失误

    OpenAI 近日推出的 Sora 2 模型引发广泛关注,其默认禁止生成在世公众人物视频,用户纷纷尝试生成各类创意内容。然而,创作者与观众很快发现这一限制存在明显漏洞该模型允许生成已故公众人物的影像,从而在伦理层面引发争议。 社交媒体上已涌现大量AI复活”名人的案例,例如李小龙主持DJ现场、迈克尔杰克逊表演单口喜剧等。尽管OpenAI在每段生成视频上添加动态水印,�

  • AI日报:美图RoboNeo上线首月MAU破百万;影视级音画同步模型Gaga AI发布;vivo蓝心3B端侧大模型发布

    本文汇总AI领域最新动态:美图通过组织变革推动AI应用RoboNeo月活破百万;vivo发布蓝心3B端侧大模型,性能超越8B模型;Gaga AI实现静态照片生成60秒电影级视频;ChatGPT周活用户突破8亿;Figma引入Gemini模型提升设计效率;印度试点AI聊天机器人购物;Figure AI推出第三代家用机器人Figure 03;谷歌推出Gemini Enterprise自动化工作流平台。显示AI正从工具向创作者跃升,加速渗透各行业。

  • 免费生成10秒高清视频!通义App接入通义万相2.5

    在2025云栖大会上,阿里发布通义万相Wan2.5 Preview系列模型,覆盖文生视频、图生视频、文生图和图像编辑四大功能。其视频生成模型首次实现音画同步,可生成匹配画面的人声、音效和BGM,时长从5秒提升至10秒,支持24帧/秒的1080P高清输出,降低影视级创作门槛。模型指令遵循能力增强,支持运镜等复杂连续变化控制。用户通过通义App输入指令即可自动生成10秒高清视频,每日免费使用15次,支持导出无水印视频。同时,图像生成能力全面升级,可生成中英文字符和图表,支持图像编辑功能,一句话即可完成P图。

  • AI日报:Veo 3.1可生成1分钟视频;蚂蚁发布万亿参数语言模型 Ling-1T;Lovart可免费玩Sora2

    本期AI日报聚焦多项技术突破:Veo 3.1视频生成模型实现角色一致性与多场景叙事升级;蚂蚁发布万亿参数Ling-1T语言模型,推理能力领跑行业;xAI推出电影级视频生成模型Imagine v0.9;软银斥资53.75亿美元收购ABB机器人业务布局物理AI;Vercel v0新增图像编辑功能简化设计流程;OpenAI Sora2首日安装量飙升至应用商店第三,同时引发深度伪造伦理担忧;Lovart平台限时免费开放Sora2无水印视频生成;ChatGPT推出应用生态,正式升级为多功能服务平台。

  • vivo自研蓝河操作系统3发布:vivo WATCH GT 2首发

    在2025年vivo开发者大会上,vivo正式发布自研蓝河操作系统3。该系统主打全链路智慧能力,基于轻量、模块化设计,将完整AI方案便捷部署至不同设备。即将发布的vivo WATCH GT 2首发搭载,升级智慧体验。系统内置视觉、听觉及感知唤醒等能力,原生支持AI识别、降噪等功能,并引入蓝心智能,支持问答、语音识别等。流畅度方面,搭载蓝河流畅引擎,实测资源消耗降低60%,绘制效率提升36%,调度切换开销下降58%,资源占用减少40%。

  • 全球首个!OpenAI将推“AI版抖音”:禁止上传实拍内容 视频100%由AI生成

    国庆假期前夕,OpenAI发布了Sora 2,一款旗舰视频和音频生成模型。 据介绍,Sora 2可以完成以前的视频生成模型难以完成的事情,比如运动员的奥林匹克体动作、桨板上的后空翻,准确模拟浮力和刚度的动态等等,并擅长现实主义、电影和动漫风格。 一则来自《连线》杂志的重磅爆料更是指出,OpenAI的下一步棋,并非简单升级一个模型,而是要亲自下场,推出一个独立的AI影�

  • AI日报:阿里推多模态模型Qwen3-Omni;谷歌推出AP2协议;百度推出Qianfan-VL 模型

    本期AI日报聚焦多领域技术突破:阿里云推出全球首个全模态AI模型Qwen3-Omni,支持文本、图像、音频和视频统一处理;百度发布多尺寸视觉理解模型Qianfan-VL,优化企业级应用。苹果扩展Image Playground平台,引入ChatGPT等第三方模型。谷歌与PayPal合作推出AP2协议,推动AI支付安全创新。钉钉上线AI表格助手,支持自然语言生成表格。DeepSeek开源V3.1-Terminus模型,性能显著提升。Kimi推出Agent会员服务,智元机器人开源全球首个通用具身智能模型GO-1,降低技术门槛促进行业创新。

  • 既能读懂情绪,还能多模态交互!INDEMIND用空间智能重新定义陪伴机器人

    TCL与INDEMIND合作推出的陪伴机器人“Ai Me”通过空间智能技术实现突破,从传统2D感知升级为3D语义感知,赋予机器人动态语义建图、实时环境适应及多模态交互能力。该平台借助立体视觉与多传感器融合,让机器人精准构建三维地图,识别家居属性,实现主动避障与个性化服务。同时,结合低算力混合模型与情感交互功能,机器人可感知用户情绪、提供安全防护,并支持宠物看护等场景拓展,从“工具”升级为有温度的“家庭伙伴”,真正满足复杂家庭需求。

  • 强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码

    2025年9月29日,深度求索公司发布新一代模型架构DeepSeek-V3.2,引发行业关注。寒武纪同步宣布适配该模型并开源vLLM-MLU推理引擎代码。新发布的DeepSeek-V3.2-Exp是实验性版本,在V3.1-Terminus基础上引入稀疏注意力机制,优化长文本训练和推理效率。目前官方应用端已同步更新,API大幅降价。此次模型体积达671GB,下载需8-10小时。业内专家指出,此次快速适配表明双方早有深度技术协�

今日大家都在搜的词: