首页 > 业界 > 关键词  > 阿里最新资讯  > 正文

Qwen3深夜正式开源,小尺寸也能大力出奇迹。

2025-04-29 08:48 · 稿源: ​ 数字生命卡兹克公众号

声明:本文来自于微信公众号 数字生命卡兹克,授权站长之家转载发布。

小道消息一直在说,昨天深夜或者今天凌晨,阿里会发Qwen3

然后我特意早早的睡了一两小时,凌晨1点起床,就为了等Qwen3发。

结果这一等,就是好几个小时。。。

不过,功夫不负有心人。

凌晨5点,我眼睛都睁不开的时候,终于等到了。

图片

Qwen你赔我睡眠。。。

把报告看完,我总结一下,觉得最大的亮点有6个:

1. 模型能力登顶全球,这个没啥可说的,就是No.1。

2. 第一个开源的混合推理模型。

3.8个不同尺寸的模型,几乎覆盖了所有场景。

4. 成本很低,旗舰模型235B参数部署成本只要DeepSeek R1的三分之一。

5. 支持MCP协议。

6. 居然还支持了119种语言。

一起说吧。

图片

这次发了8个模型,Qwen3-0.6B、1.7B、4B、8B、14B、32B,这6个都是Dense稠密模型。

还有两个重量级MoE模型,Qwen3-30B-A3B,和旗舰版的Qwen3-235B-A22B。

图片

这次Qwen采用了新的命名方式,Qwen3-0.6B、1.7B、32B这种没啥可说的,大家都理解。

两个MoE模型,把激活的参数写在后面,Qwen3-235B-A22B的意思就是235B的参数,但是在推理时只激活22B。

Qwen3-30B-A3B就是总参数量为30B,激活参数3B,这个还蛮有意思的。

而且,所有的模型,都是混合推理模型。

大概的意思就是,你既可以把它当不会长思考没有思维链的普通模型用,也可以直接开启推理模式,变成一个推理模型。

可以简单的理解为,把DeepSeek V3和R1直接揉在了一起。

就像我们其实都知道,DeepSeek这个深度思考,你打开的时候,是R1模型,但是你关掉,其实用的是v3来给你回答。

图片

但是Qwen3,是一体的。

图片

是一个模型,只不过支持了两种模式,这个不管对于开发者还是使用者,都方便很多。

整体上,8个模型,诚意足到爆炸,小到0.6B,大到235B,能打手机端侧,也能打旗舰体验,全部一次性开源了,而且都是Apache2.0协议,想怎么用就怎么用,想商用就商用,没啥顾虑。

Qwen3-0.6B~4B的最大Token都是32K,其他的都是128K。

性能上,稍微有点离谱。

Qwen3-4B的小模型,就已经能和上一代QwQ-32B这玩意打得有来有回。而Qwen3-30B-A3B,更是几乎就比QwQ-32B全方位的强。

图片

至于最牛逼的那个Qwen3-235B-A22B,他们甚至没只跟开源模型比,比的全都是最顶级的闭源模型。

最主要的是,这玩意部署成本,大概只有DeepSeek R1的三分之一啊。。。

图片

什么叫便宜大碗,这就是。

但是这么一对比,忽然发现,Gemini2.5-Pro,好像有点猛。。。

同时,在性能水桶式提升的背景下,也有了更强的Agent能力,也支持MCP了。

他们官方自己放了一段视频。

我也随手把即梦接了进去,可以直接用Qwen3来调用即梦画图了。。。

图片

就还真的,挺好玩,你的下一个即梦,又何必是即梦呢(狗头。

图片

除了这些模型的能力,Qwen3这次还有一个很有趣的东西。

就是语言。

上一代的Qwen2.5,只支持包括中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文、韩文、越南文、泰文、阿拉伯文等29种语言。

而这一次,支持119种语言了。

图片

不是,到底谁才是真正的OpenAI啊。

这妥妥是为世界人民谋福利好吧。。。

项目地址都在这了。

Blog: https://qwenlm.github.io/blog/qwen3/

GitHub: https://github.com/QwenLM/Qwen3

图片

你牛逼的话可以自己部署,我5080勉强跑个Qwen3-8B,实在跑不起。

想体验的话,可以直接去通义和Qwen Chat,都可以。

通义:https://www.tongyi.com/qianwen/

Qwen Chat:https://chat.qwen.ai/

我自己直接在Qwen Chat上面实测了一波,一进来左上角就默认是旗舰版Qwen3。

图片

嗯,就是比较抽象的是,提示语都居然都变成早上好,卡兹克了。。。

你可以在左上角,切换3个这次Qwen3比较有代表的模型来进行对比。

图片

左下角的深度思考,就能是否开启推理的开关。

而且这个开关还能拖动滑块,决定它的最大思考长度,虽然这个功能很极客,但是还有意思。

图片

我自己的实测结论就是:水桶级别,中等偏上。

比如让它给我生成一个登录页。

图片

效果很不错,能直接干出一个很酷的界面。

https://us4mpg09fz.app.yourware.so/

图片

或者做藏师傅搞得可交互的网页,把吃瓜PDF变成在线时间线。

图片

这时候你就会发现,审美会差一点,丰富度也会不是特别狗,稍微有一点点勉强了。

图片

而如果再让它写一个之前我在文章里放的洛小山的弹球游戏的Prompt:

    我会给你一个文件,分析内容,并将其转化为美观漂亮的中文可视化网页作品集:##内容要求-保持原文件的核心信息,但以更易读、可视化的方式呈现-在页面底部添加作者信息区域,包含:*作者姓名:[作者姓名]*社交媒体链接:至少包含Twitter/X:-版权信息和年份##设计风格-整体风格参考LinearApp的简约现代设计-使用清晰的视觉层次结构,突出重要内容-配色方案应专业、和谐,适合长时间阅读##技术规范-使用HTML5、TailwindCSS3.0+(通过CDN引入)和必要的JavaScript-实现完整的深色/浅色模式切换功能,默认跟随系统设置-代码结构清晰,包含适当注释,便于理解和维护##响应式设计-页面必须在所有设备上(手机、平板、桌面)完美展示-针对不同屏幕尺寸优化布局和字体大小-确保移动端有良好的触控体验##媒体资源-使用文档中的Markdown图片链接(如果有的话)-使用文档中的视频嵌入代码(如果有的话)##图标与视觉元素-使用专业图标库如FontAwesome或MaterialIcons(通过CDN引入)-根据内容主题选择合适的插图或图表展示数据-避免使用emoji作为主要图标##交互体验-添加适当的微交互效果提升用户体验:*按钮悬停时有轻微放大和颜色变化*卡片元素悬停时有精致的阴影和边框效果*页面滚动时有平滑过渡效果*内容区块加载时有优雅的淡入动画##性能优化-确保页面加载速度快,避免不必要的大型资源-实现懒加载技术用于长页面内容##输出要求-提供完整可运行的单一HTML文件,包含所有必要的CSS和JavaScript-确保代码符合W3C标准,无错误警告-页面在不同浏览器中保持一致的外观和功能请根据上传文件的内容类型(文档、数据、图片等),创建最适合展示该内容的可视化网页。

    确实没有那么亮眼,在游玩的时候还有一些些BUG。

    图片

    但是毕竟这个游戏还是太复杂了,人模型的尺寸也没那么大,也没法既要又要。

    如果是做稍微简单一点的连连看游戏,就还是比较简单了。

      <!--生成一个记忆翻牌游戏,要求:1.使用CSS渐变背景(深紫到黑)2.12张圆角卡片(6对图案),默认显示彩色霓虹边框3.点击卡片翻转时显示emoji图案,匹配成功时卡片变为半透明发光状态4.顶部显示极简计时器和步数统计5.禁止使用图片,全部用CSS绘制--><divid="memory-game"style="background:linear-gradient(135deg,#3a0ca3,#000);"><!--JS动态生成卡片--></div>,所有的游戏文字都是英文

      图片

      除了代码,逻辑问题,现在基本也不太能难道现在的推理大模型了。

      图片

      不过在遇到一些非常离奇非正常的测试prompt时,还是会有一点点掉智。

      图片

      文笔的话,亲测会比DeepSeek好一些。

      图片

      但是略逊于GPT-4o。

      如果你还想玩一点花活,还能跟即梦打通做结合。

      图片

      就能实现类似于那种原生多模态模型,图文混排的效果。

      图片

      还是超级有意思的。

      总之,这次Qwen3的发布,真的有点像是深夜街头,突然亮起的那盏霓虹灯。

      不仅亮,还便宜。

      不仅便宜,还能库库的切换颜色。

      这一波下来,阿里确实是拿出了一种很阿里的态度。

      8点了,天也亮了。

      该去睡觉了。

      最后。

      Qwen3,欢迎来到这个荒诞又灿烂的时代。

      咱们,下个奇点见。

      举报

      • 相关推荐
      • 阿里Qwen3发布后 马斯克立刻官宣:下周推出Grok 3.5

        快科技4月29日消息,马斯克刚刚在社交平台X上称,下周将向SuperGrok订阅者推出Grok 3.5,并将该条信息顶置。据马斯克称,Grok 3.5是第一个能够准确回答有关火箭发动机或电化学技术问题的人工智能。同时,Grok可以从第一原理推理并得出互联网上根本不存在的答案。Grok 3.5被马斯克旗下的xAI宣传为全球首个人工智能能从第一性原理推理,生成网络上不存在的答案”。而今年2月18日,xAI正式发布Grok 3,并在两天后把Grok 3免费向所有公众开放,超越ChatGPT,登顶苹果应用商店免费应用下载排行榜第一名。马斯克曾称Grok 3为地球上最聪明的人工智

      • 联发科:天玑9400已率先完成阿里Qwen3端侧部署

        阿里巴巴通义千问团队开源发布新一代Qwen3系列混合推理模型,包含2个MoE模型和6个dense模型,参数规模从0.6B到235B。该系列采用前沿的混合专家架构,预训练数据量达36T tokens,在推理、指令遵循、多语言能力等方面显著提升。联发科宣布天玑9400芯片率先完成Qwen3端侧部署,其搭载的第八代AI处理器NPU+890在ETHZ AI Benchmark测试中表现优异。天玑9400凭借强大AI算力,可让用户在手机等终端设备上高效使用Qwen3模型。旗舰模型Qwen3-235B-A22B在编码、数学等基准测试中展现出与DeepSeek、Grok-3等模型的竞争优势,同时部署成本大幅降低,显存占用仅为性能相近模型的三分之一。

      • AI日报:阿里新模型Qwen3即将来袭;GitHub开源MCP服务器;Runway发布Gen-4 Turbo

        欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、Qwen3即将来袭:阿里云新模型相关支持已正式合并至vLLM代码库阿里云的Qwen3模型即将发布,标志着其在AI领域的又一重要进展。新推出的AI听歌报告能够精准识别用户音乐偏好,场景

      • AI日报:通义千问Qwen3重磅发布;抖音AI搜索能力开放;ChatGPT 搜索新增网购功能;Suno V4.5版本将发布

        本期AI日报重点内容: 1. 通义千问发布Qwen3大模型,在代码、数学和通用能力方面表现突出,支持两种思考模式并开源多个模型权重 2. 抖音开放AI搜索能力接口,为第三方应用提供丰富内容资源 3. ChatGPT新增网购功能,通过对话获取个性化商品推荐 4. Suno AI即将推出V4.5版本,提升音乐生成真实度 5. Simular AI登陆macOS,打造本地化智能助手 6. 暗月之面开源Kimi-VL模型,可处理文本、图像和视频 7. UCLA与Meta推出d1框架,提升大语言模型推理速度 8. 通义灵码上线Qwen3编程智能体 9. Gen-4References图像生成技术惊艳亮相 10. Hugging Face推出可编程机械臂SO-101 11. Windsurf推出全新品牌标志 12. Ollama全面支持Qwen3模型本地部署

      • 理想自研星环OS正式开源!操作系统代码已开放下载

        理想汽车4月28日宣布自研"星环OS"操作系统正式开源,成为全球首个实现整车级操作系统全面开源的车企。该系统代码已通过Gitee平台开放下载,采用Apache License V2.0开源协议,覆盖智能车控、智能驾驶、通信中间件、信息安全四大核心模块。该系统不同于车载屏幕系统,而是整车全链路操作系统,包括车辆控制等核心功能。研发始于2021年,投入200名研发人员和10亿元人民币。系统采用资源集中与共享架构,支持英飞凌、地平线等主流车规芯片,芯片适配验证时间比传统闭源系统缩短80%。在性能方面,AI算力虚拟化损耗降低80%,传感器访问时延降低90%,存储资源占用减少30%,响应速度比AUTOSAR提升1倍。安全性能方面,120km/h高速状态下AEB刹停距离缩短7米。

      • 阿里巴巴正式开源千问3 仅需4张H20即可部署满血版

        阿里巴巴开源新一代通义千问模型Qwen3,采用混合推理架构,集成"快思考"与"慢思考"模式,能根据任务复杂度自动调整计算资源。该模型参数规模235B,在GPQA等权威评测中表现优异,以更小规模实现超越上一代模型的性能。Qwen3包含2款MoE模型和6款密集模型,部署成本大幅降低,仅需4张H20显卡即可运行满血版,显存占用仅为同类模型的三分之一。新模型通过智能分配算力,在简单任务上快速响应,复杂问题上深度思考,显著提升能效比。

      • 实锤了,Llama 4重测排名掉至32名!远不及DeepSeek和Qwen

        LMArena更新了Meta最新发布的开源大模型Llama-4-Maverick的排名,从此前的第2名,直线掉到了第32名!这也实锤了此前开发者对Meta为刷榜排名向LMArena提供了“特供版”的Llama4大模型的质疑。开源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名为32名,远低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至连英伟达基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

      • 提升大模型自动修Bug能力 豆包正式开源首个多语言类SWE数据集

        今日,字节跳动豆包大模型团队宣布,正式开源首个多语言类SWE数据集Multi-SWE-bench,可用于评估和提升大模型自动修Bug”能力。在SWE-bench基础上,Multi-SWE-bench首次覆盖Python之外的7种主流编程语言,是真正面向全栈工程”的评测基准。相比于以往聚焦Python的单语言任务,Multi-SWE-bench更贴近现实中的多语言开发场景,也更能反映当前模型在自动化软件工程”方向上的实际能力边界。

      • “谷歌版MCP”来了,开源A2A,不同厂商Agent也能协作

        “谷歌版MCP”来了!谷歌推出A2A协议,即Agent2Agent,能让AIAgent在不同生态系统间安全协作无需考虑框架或供应商。不同平台构建的AIAgent之间可以进行通信、发现彼此的能力、协商任务并开展协作,企业可通过专业Agent团队处理复杂工作流。从各大厂最近动作来看,芜湖,不愧是Agent元年。

      • 刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

        Llama4重磅发布了!Meta官宣开源首个原生多模态Llama4,首次采用的MoE架构,支持12种语言,首批发布一共两款:Llama4Scout:共有1090亿参数,17B活跃参数,16个专家,1000万上下Llama4Maverick:共有4000亿参数,17B活跃参数,128个专家,100万上下文另外,2万亿参数Llama4Behemoth将在未来几个月面世,288B活跃参数,16个专家。Llama4的横空出世,成为迄今为止开源最强,多模态能力最好的模型之一。L