首页 > AI头条  > 正文

阿里开源多模态模型Qwen2.5-Omni:显存大幅降低暴降 50%

2025-05-01 09:45 · 来源: AIbase基地

在开源大模型的竞争中,阿里巴巴推出了其最新的多模态模型 Qwen2.5-Omni-3B。这款模型的显著特点是显存使用减少了50%,在同等处理能力下,更加适合普通消费者的 GPU 设备。这一创新标志着阿里在多模态人工智能领域的进一步突破。

image.png

Qwen2.5-Omni 是一款端到端的多模态模型,能够同时处理文本、图像、音频和视频等多种信息类型。得益于其独特的 “Thinker-Talker” 架构,模型能够在实时互动中灵活运用多种输入,生成相应的文本和自然语音回应。这种设计使得用户在与系统的互动中,能够获得更流畅、更自然的体验。

image.png

显存优化,兼容性增强

与 Qwen2.5-Omni-7B 模型相比,3B 版本在处理长上下文序列时,显存显著降低,使得其在24GB 的消费级 GPU 上仍能支持长达30秒的音视频交互。这一优化不仅提升了模型的适用性,也让更多用户能够在个人计算机上实现高效的多模态处理,解决了以往因显存不足导致的使用障碍。

实时语音与视频聊天功能

Qwen2.5-Omni 的核心优势之一是其支持完全实时的语音和视频聊天功能。该模型能够处理分块输入并即时输出响应,展现出卓越的鲁棒性和自然度。这种技术使得在语音生成方面,Qwen2.5-Omni 的表现超越了许多现有的流式和非流式模型,为用户提供了更加人性化的互动体验。

在多模态任务中,Qwen2.5-Omni 展现出令人瞩目的性能,无论是在单一模态任务,如语音识别、翻译、音频理解、图像推理,还是在需要多模态融合的复杂任务中,该模型都能表现出色。在与同规模的单模态模型对比中,Qwen2.5-Omni 不仅在音频能力上超越了 Qwen2-Audio,还在图像和视频任务中达到了与 Qwen2.5-VL-7B 相当的水平,证明了其多模态处理的强大能力。

github地址:https://github.com/QwenLM/Qwen2.5-Omni

在线体验:https://modelscope.cn/studios/Qwen/Qwen2.5-Omni-Demo

  • 相关推荐
  • 1000万上下文!新开源多模态大模型,单个GPU就能运行

    今年2月初,谷歌发布的Gemini2.0Pro支持200万上下文,震惊了整个大模型领域。仅过了2个月,Meta最新开源的Llama4Scout就将上下文扩展至1000万,整整提升了5倍开启千万级时代。根据实验数据显示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等测试的数据比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

  • 可灵AI发布全新2.0模型:上线多模态视频编辑功能

    快科技4月16日消息,据报道,可灵AI在北京举行灵感成真”2.0模型发布会,正式发布可灵2.0视频生成模型及可图2.0图像生成模型。据介绍,可灵2.0模型在动态质量、语义响应、画面美学等维度保持领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。3月27日,全球AI基准测试机构Artificial Analysis发布了最新的全球视频生成大模型榜单,快手可灵1.6pro(高品质模

  • 开源即支持!基于昇腾MindSpeed MM玩转InternVL3多模态理解最新模型

    多模态理解领域当前已成了各家AI大模型公司“军备竞赛”的关键点之一,国内外知名AI大模型公司都争相通过发布最先进的多模态大语言模型展现其在多模态理解领域的前沿能力。近期,上海AI实验室推出了其最新的多模态大语言模型InternVL3 系列,相比上一代InternVL2. 5 模型,该模型展现出卓越的多模态感知和推理能力,同时进一步扩展了其工具使用、GUI代理、工业图像分析等

  • 多模态和Agent成为大厂AI的新赛 点

    这是《窄播Weekly》的第52期,本期我们关注的商业动态是:当大厂的AI竞争策略开始倾斜向应用场景,多模态能力和代理执行成为两个焦点。大模型落地C端场景的核心,就是让大模型的能力越来越接近人。沿着这个主旋律,可以划分出两个进化方向:一个是持续降低用户与大模型进行有效沟通的难度;另一个则是让大模型具备执行更复杂任务的能力。前者的实现,需要给到大模型多

  • 多模态和Agent成为大厂AI的新赛点

    本期《窄播Weekly》聚焦AI大厂竞争策略向应用场景倾斜的趋势,重点分析了多模态能力和代理执行两大发展方向。文章指出,大模型落地的核心在于让人机交互更自然,具体表现为:1)通过多模态技术降低用户使用门槛,如阿里夸克新推出的"拍照问夸克"功能;2)通过代理执行提升复杂任务处理能力,如字节、百度等推出的通用Agent产品。国内外厂商路径差异明显:国�

  • Qwen3深夜正式开源,小尺寸也能大力出奇迹。

    阿里发布通义千问Qwen3大模型系列,包含8个不同规模的模型,从0.6B到235B参数全覆盖。亮点包括:1)全球顶尖模型能力;2)首个开源的混合推理模型;3)支持119种语言;4)部署成本仅为DeepSeek+R1的三分之一;5)支持MCP协议。其中235B旗舰模型性能对标顶级闭源模型,30B-MoE模型激活参数仅3B。所有模型均采用Apache2.0协议开源,支持商用。实测显示Qwen3在代码和写作方面优于DeepSeek

  • 阿里Qwen3发布后 马斯克立刻官宣:下周推出Grok 3.5

    快科技4月29日消息,马斯克刚刚在社交平台X上称,下周将向SuperGrok订阅者推出Grok 3.5,并将该条信息顶置。据马斯克称,Grok 3.5是第一个能够准确回答有关火箭发动机或电化学技术问题的人工智能。同时,Grok可以从第一原理推理并得出互联网上根本不存在的答案。Grok 3.5被马斯克旗下的xAI宣传为全球首个人工智能能从第一性原理推理,生成网络上不存在的答案”。而今年2月18日,xAI正式发布Grok 3,并在两天后把Grok 3免费向所有公众开放,超越ChatGPT,登顶苹果应用商店免费应用下载排行榜第一名。马斯克曾称Grok 3为地球上最聪明的人工智

  • 刚刚,商汤发布第六代大模型:6000亿参数多模态MoE,中长视频直接可推理

    现在的国产AI应用,一口气看好几分钟的视频,都可以直接做推理和解析了!瞧~只需“喂”上一段柯南片段,AI就摇身一变成“名侦探”做剖析:它会对整个视频的内容先做一个总结,再按照秒级,对视频片段做内容上的推演。商汤科技联合创始人杨帆认为:银河通用合伙人、大模型负责人张直政表示:除此之外,上海交通大学副教授闫维新对这个问题的看法是:总言之,商汤作为国�

  • 刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

    Llama4重磅发布了!Meta官宣开源首个原生多模态Llama4,首次采用的MoE架构,支持12种语言,首批发布一共两款:Llama4Scout:共有1090亿参数,17B活跃参数,16个专家,1000万上下Llama4Maverick:共有4000亿参数,17B活跃参数,128个专家,100万上下文另外,2万亿参数Llama4Behemoth将在未来几个月面世,288B活跃参数,16个专家。Llama4的横空出世,成为迄今为止开源最强,多模态能力最好的模型之一。L

  • AI日报:阿里模型Qwen3即将来袭;GitHub开源MCP服务器;Runway发布Gen-4 Turbo

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、Qwen3即将来袭:阿里云新模型相关支持已正式合并至vLLM代码库阿里云的Qwen3模型即将发布,标志着其在AI领域的又一重要进展。新推出的AI听歌报告能够精准识别用户音乐偏好,场景

今日大家都在搜的词:

热文

  • 3 天
  • 7天