首页 > AI头条  > 正文

Qwen3即将来袭:阿里云新模型相关支持已正式合并至vLLM代码库

2025-04-08 10:59 · 来源: AIbase基地

近日,阿里云旗下人工智能大模型系列Qwen迎来重要进展,其下一代模型Qwen3的相关支持已正式合并至vLLM(高效大语言模型推理框架)的代码库中。这一消息迅速引发了科技圈的热烈讨论,标志着Qwen3的发布已进入倒计时阶段。据悉,Qwen3将包含至少两个版本:Qwen3-8B和Qwen3-MoE-15B-A2B,分别代表不同规模和架构的创新尝试,为开发者与企业用户带来了更多期待。

Qwen3-8B作为系列中的基础模型,预计将延续Qwen家族在语言理解与生成任务上的优异表现。业界推测,这一版本可能在多模态能力上有所突破,能够同时处理文本、图像甚至其他数据类型,从而满足更广泛的应用场景需求。与此同时,Qwen3-MoE-15B-A2B则采用了混合专家(Mixture-of-Experts, MoE)架构,拥有15亿参数,其中约2亿为活跃参数。这种设计旨在通过高效的专家路由机制,在保持较低计算成本的同时实现接近更大模型的性能表现。分析人士指出,若Qwen3-MoE-15B-A2B能在性能上媲美此前的Qwen2.5-Max(一款以高智能著称的模型),其在实际应用中的潜力将不可小觑。

image.png

此次vLLM对Qwen3的支持合并,意味着开发者将能够利用这一高性能推理框架,轻松部署Qwen3模型以实现快速、稳定的推理任务。vLLM以其高效的内存管理和并行处理能力闻名,能够显著提升大模型在生产环境中的运行效率。这一进展不仅为Qwen3的落地应用铺平了道路,也进一步巩固了阿里云在开源AI生态中的影响力。

尽管Qwen3的具体功能和性能细节尚未完全公开,业界对其寄予厚望。Qwen2.5系列此前已在编码、数学推理和多语言任务中展现出超越同行的实力,而Qwen3被期待在这些领域进一步突破,尤其是在资源受限环境下的表现。MoE架构的引入也引发了讨论:相比传统密集模型,Qwen3-MoE-15B-A2B可能在能效比上更具优势,适合部署在边缘设备或中小型服务器上。然而,也有声音认为,15亿参数的规模相对较小,是否能完全满足复杂任务的需求仍需实测验证。

阿里云近年来在AI领域的持续投入已使其成为全球开源模型开发的重要力量。从Qwen1.5到Qwen2.5,每一代模型的迭代都伴随着技术与生态的双重进步。Qwen3的到来,不仅是阿里云技术升级的体现,也是在全球AI竞赛中抢占先机的重要一步。可以预见,随着更多细节的披露和模型的正式发布,Qwen3将在开发社区和企业应用中掀起新的热潮,为从智能助手到自动化流程的多种场景注入新的活力。

  • 相关推荐
  • AI日报:阿里新模型Qwen3将来袭;GitHub开源MCP服务器;Runway发布Gen-4 Turbo

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、Qwen3即将来袭:阿里云新模型相关支持已正式合并至vLLM代码库阿里云的Qwen3模型即将发布,标志着其在AI领域的又一重要进展。新推出的AI听歌报告能够精准识别用户音乐偏好,场景

  • AI更有感情色彩!星纪魅族宣布:深度接入阿里云全模态大模型Qwen2.5-Omni

    星纪魅族首席运营官廖清红宣布,公司将深度接入阿里云首个端到端全模态大模型Qwen2.5-Omni,这一举措将显著提升星纪魅族产品的AI情感理解能力。通过此次合作,星纪魅族能够在复杂任务中提供更智能、更自然的反馈与决策,标志着公司在AI领域的进一步发展。今年星纪魅族的新品计划还包括眼镜、AIDevice、车上的产品以及手机,并将推出车机FlymeAuto和手机Flyme的大版本更新。

  • 手机也能跑的模型来了!阿里宣布开源Qwen2.5-Omni-7B

    今天,阿里云宣布通义千问Qwen2.5-Omni-7B正式开源。这是通义系列模型中首个端到端全模态大模型,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。2023年起,通义团队陆续开发覆盖0.5B、1.5B、3B、7B、14B、32B、72B、110B等参数的200多款全尺寸大模型,囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等全模态。

  • AI日报:淘宝全平台启动AI假图治理;OpenAI官宣支持MCP协议;阿里开源全模态模型Qwen2.5-Omni

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里通义千问开源发布新一代端到端多模态模型Qwen2.5-Omni阿里云通义千问团队推出了Qwen2.5-Omni,这是一个新一代的多模态旗舰模型,旨在实现文本、图像、音频和视频的无缝处理。这项技术为视频生成领域带来了新的发展机遇,尤其是在文本到视频生成等应用场景中,展现了巨大的潜力。

  • 实锤了,Llama 4重测排名掉至32名!远不及DeepSeek和Qwen

    LMArena更新了Meta最新发布的开源大模型Llama-4-Maverick的排名,从此前的第2名,直线掉到了第32名!这也实锤了此前开发者对Meta为刷榜排名向LMArena提供了“特供版”的Llama4大模型的质疑。开源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名为32名,远低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至连英伟达基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

  • 阿里云,一场对阿里关注度的无声转移

    随着DeepSeek的出圈,通义大模型团队也有了更多大的压力,一位通义的员工称,他们的模型现在最大的困扰是“叫好不叫座”;虽然阿里云作为开放平台,可以部署其他家模型,但是保持住自研大模型的领先性,“守住开源的地位”成了高层对他们的新要求。‍‍‍‍‍‍‍‍‍‍‍‍‍‍阿里云,对于阿里,很重要。阿里云在长期基础设施的大投资下,是负重前行;加上与华为�

  • 开发效率提升100倍!腾讯AI代码助手正式搭载DeepSeek-V3-0324顶级模型

    腾讯云AI代码助手最新宣布,正式搭载DeepSeek-V3-0324顶级模型。下载/更新AI代码助手插件即可用,官方号称开发效率能直接提升100倍。腾讯总结了DeepSeek-V3-0324的五大强项:创新的训练策略-采用无辅助损失的负载均衡,避免传统方法的性能损失-多token预测训练提升推理速度,FP8混合精度训练显著降低计算成本-在超大规模模型上验证FP8训练的有效性,提高训练效率优化的MoE架构-动态调整偏差项,防止路由崩溃,性能提升15%以上-节点受限路由机制减少跨节点通信流量至1/3,结合FP8调度与RDMA优化,训练效率提升40%-支持128K超长上下文,可处理50页PDF或完整代码库,多轮对话记忆更强综合能力大幅提升-关键指标突破性进步,在各项权威基准测试中相较于初代V3,在关键指标上展现了突破性进步。

  • 阿里开源通义新模型:指定首尾图片生成视频

    快科技4月18日消息,据报道,阿里巴巴旗下通义万相宣布开源其创新视频生成技术首尾帧生视频14B模型。这项突破性AI技术能够根据用户提供的起始和结束画面,智能生成720p高清过渡视频,为视频创作带来全新可能。该模型通过先进的深度学习算法,能够精准理解输入画面的内容、风格及主题特征。当用户提供首尾两帧图像后,模型会智能分析画面中的视觉元素,包括物体形�

  • 国家天文台、阿里云发布全球首个太阳AI大模型:耀斑预报准确率超91%

    中科院国家天文台联合阿里云,发布了全球首个太阳AI大模型金乌”,基于阿里通义千问系列开源模型,目前在M5级太阳耀斑预报上准确率超91%,这也是该级别太阳耀斑预报的最高水平。太阳耀斑是太阳表面发生的剧烈能量释放事件,会辐射出大量带电高能粒子,影响地球电磁环境,严重时可造成大范围停电,威胁在轨卫星、空间站的安全。值得一提的是,中科院国家天文台的星语”大模型、中科院青藏高原研究所的全球首个水能粮大模型洛书”、中科院南海所的珊瑚礁多模态大模型瑶华”,都是基于阿里通义千问系列模型打造的。

  • Llama 4大模型跌落神坛:作弊刷榜、代码能力极差、和DeepSeek比就是伪开源

    被寄予厚望的美国Meta公司的最新开源大模型Llama4发布不到2天时间,口碑急转直下,被质疑为刷榜作弊实际效果差、开源条件多部署门槛高是伪开源等。大模型评测平台LMArena亲自下场发文,打脸Meta提供给平台的Llama4是“特供版”。Meta若继续在商业控制与技术开放之间摇摆,恐将在AI竞赛中进一步失去开发者支持。

今日大家都在搜的词: