首页 > 传媒 > 关键词  > 昆仑万维最新资讯  > 正文

昆仑万维开源2千亿稀疏大模型天工MoE,全球首创能用4090推理

2024-06-04 09:42 · 稿源: 站长之家用户

2024年6月3日,昆仑万维宣布开源2千亿稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,是首 个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE大模型,也是首 个支持用单台4090服务器推理的开源千亿 MoE大模型。

开源地址:

Skywork-MoE 的模型权重、技术报告完全开源,免费商用,无需申请:

• 模型权重下载:

○ https://huggingface.co/Skywork/Skywork-MoE-base

○ https://huggingface.co/Skywork/Skywork-MoE-Base-FP8

• 模型开源仓库:https://github.com/SkyworkAI/Skywork-MoE

• 模型技术报告:https://github.com/SkyworkAI/Skywork-MoE/blob/main/skywork-moe-tech-report.pdf

• 模型推理代码:(支持8x4090服务器上8bit 量化加载推理) https://github.com/SkyworkAI/vllm

模型架构:

本次开源的 Skywork-MoE 模型隶属于天工3.0的研发模型系列,是其中的中档大小模型(Skywork-MoE-Medium),模型的总参数量为146B,激活参数量22B,共有16个 Expert,每个 Expert 大小为13B,每次激活其中的2个 Expert。

天工3.0还训练了75B (Skywork-MoE-Small) 和400B (Skywork-MoE-Large)两档 MoE 模型,并不在此次开源之列。

模型能力:

我们基于目前各大主流模型评测榜单评测了 Skywork-MoE,在相同的激活参数量20B(推理计算量)下,Skywork-MoE 能力在行业前列,接近70B 的 Dense 模型。使得模型的推理成本有近3倍的下降。同时 Skywork-MoE 的总参数大小比 DeepSeekV2的总参数大小要小1/3,用更小的参数规模做到了相近的能力。

技术创新:

为了解决 MoE 模型训练困难,泛化性能差的问题,相较于 Mixtral-MoE, Skywork-MoE 设计了两种训练优化算法:

1. Gating Logits 归一化操作

我们在 Gating Layer 的 token 分发逻辑处新增了一个 normalization 操作,使得 Gating Layer 的参数学习更加趋向于被选中的 top-2experts,增加 MoE 模型对于 top-2的置信度:

2. 自适应的 Aux Loss

有别于传统的固定系数(固定超参)的 aux loss, 我们在 MoE 训练的不同阶段让模型自适应的选择合适的 aux loss 超参系数,从而让 Drop Token Rate 保持在合适的区间内,既能做到 expert 分发的平衡,又能让 expert 学习具备差异化,从而提升模型整体的性能和泛化水平。在 MoE 训练的前期,由于参数学习不到位,导致 Drop Token Rate 太高(token 分布差异太大),此时需要较大的 aux loss 帮助 token load balance;在 MoE 训练的后期,我们希望 Expert 之间仍保证一定的区分度,避免 Gating 倾向为随机分发 Token,因此需要较低的 aux loss 降低纠偏。

训练 Infra

如何对 MoE 模型有效的进行大规模分布式训练是一个有难度的挑战,目前社区还没有一个最 佳实践。Skywork-MoE 提出了两个重要的并行优化设计,从而在千卡集群上实现了 MFU38% 的训练吞吐,其中 MFU 以22B 的激活参数计算理论计算量。

1. Expert Data Parallel

区别于 Megatron-LM 社区已有的 EP(Expert Parallel)和 ETP(Expert Tensor Parallel)设计,我们提出了一种称之为 Expert Data Parallel 的并行设计方案,这种并行方案可以在 Expert 数量较小时仍能有效的切分模型,对 Expert 引入的 all2all 通信也可以最 大程度的优化和掩盖。相较于 EP 对 GPU 数量的限制和 ETP 在千卡集群上的低效, EDP 可以较好的解决大规模分布式训练 MoE 的并行痛点,同时 EDP 的设计简单、鲁棒、易扩展,可以较快的实现和验证。

一个最简单的 EDP 的例子,两卡情况下 TP =2, EP =2, 其中 Attention 部分采用 Tensor Parallel , Expert 部分采用 Expert Parallel

2. 非均匀切分流水并行

由于 first stage 的 Embedding 计算和 last stage 的 Loss 计算,以及 Pipeline Buffer 的存在, 流水并行下均匀切分 Layer 时的各 stage 计算负载和显存负载均有较明显的不均衡情况。我们提出了非均匀的流水并行切分和重计算 Layer 分配方式,使得总体的计算/显存负载更均衡,约有10% 左右的端到端训练吞吐提升。

比较均匀切分和非均匀切分下的流水并行气泡:对于一个24层 Layer 的 LLM, (a) 是均匀切分成4个 stage,每个 stage  的 layer 数量是:[6,6,6,6].(b) 是经过优化后的非均匀切分方式,切成5个 stage, 每个 stage 的 layer 数量是:[5,5,5,5,4] , 在中间流水打满的阶段,非均匀切分的气泡更低。

MoE Know-how

此外,Skywork-MoE 还通过一系列基于 Scaling Laws 的实验,探究哪些约束会影响 Upcycling 和 From Scratch 训练 MoE 模型的好坏。

一个可以遵循的经验规则是:如果训练 MoE 模型的 FLOPs 是训练 Dense 模型的2倍以上,那么选择 from Scratch 训练 MoE 会更好,否则的话,选择 Upcycling 训练 MoE 可以明显减少训练成本。

4090推理

Skywork-MoE 是目前能在8x4090服务器上推理的最 大的开源 MoE 模型。8x4090服务器一共有192GB 的 GPU 显存,在 FP8量化下(weight 占用146GB),使用我们首创的非均匀 Tensor Parallel 并行推理方式,Skywork-MoE 可以在合适的 batch size 内达到2200tokens/s 的吞吐。

结语

我们希望本次开源的 Skywork-MoE 模型、技术报告和相关的实验结果可以给开源社区贡献更多的 MoE 训练经验和 Know-how,包括模型结构、超参选择、训练技巧、训练推理加速等各方面, 探索用更低的训练推理成本训更大更强的模型,在通往 AGI 的道路上贡献一点力量。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 生成视频好看还不够,还要能自由探索!昆仑万维开源Matrix-Game,单图打造游戏世界

    世界模型的进度条,最近坐上了火箭。 去年11月,两家创业公司打造的 Oasis,首次在开源世界模型中实现了实时、可玩、可交互。生成的虚拟环境不仅包含画面,也体现出了对物理和游戏规则的理解。

  • 重估昆仑万维:Meta式开源、Adobe级爆款、腾讯级生态

    中国AI公司昆仑万维凭借独特商业模式实现快速增长,其战略融合了Meta的开源技术、Adobe的垂直产品矩阵和腾讯的生态思维。公司90%收入来自海外市场,通过视频、音乐、社交等产品矩阵在东南亚、中东等新兴市场快速扩张。核心产品包括短剧平台DramaWave(年收入1.2亿美元ARR)和AI音乐平台Mureka(年收入1200万美元ARR),均实现盈利。技术层面,公司采用"垂直开源+商业验证"模式,推出SkyReels视频生成等开源模型,形成开发者生态闭环。其独特之处在于:既非单纯对标国际巨头的通用模型,也避免国内同质化竞争,而是通过开源底座+垂类产品+生态卡位的组合构建差异化优势。2024年财报显示,公司AI业务年收入达10亿元,研发投入同比增长23.4%。市场看好其"平台型AI矩阵"价值,近一月股价上涨20.7%。这家中型科技企业的突围路径,为行业提供了技术出海与生态共建的新范式。

  • AI日报:昆仑万维开源SkyReels-V2;讯飞星火X1新升级;扣子空间Coze Space内测

    本文介绍了多个前沿的人工智能产品和技术动态,包括SkyReels-V2视频生成模型、讯飞星火大模型升级、宇树科技人形机器人比赛计划、Coze Space AI协作平台、Gemma3 QAT优化模型、英特尔AI Playground工具、Reachy2人形机器人发布、ChatTS-14B语音研究项目、Figma推出AI设计工具以及MarkItDown MCP文档转换工具,展示了AI技术在多领域的广泛应用与创新发展潜力。

  • 7个月ARR 1.2亿美元,昆仑万维靠“短剧+AI”找到了新增长点

    据某头部媒体发布的行业白皮书显示,海外短剧月均用户已达2000-4000万,未来短剧预计将覆盖亿级的海外用户,市场规模或突破百亿美元。正是在这一行业窗口期,昆仑万维以“后来者”姿态切入赛道,却迅速在全球市场中突围,吸引了我

  • 长安马自达EZ-60全球首秀,接入豆包大模型

    4月23日,长安马自达EZ-60在2025上海国际车展全球首发。作为品牌新能源战略转型产品,该车在美学设计、AI智能座舱、电感驾控及主被动安全性能等方面实现突破。最大亮点是全面接入豆包大模型,用户可通过语音指令实现复杂操作、互联网信息问答及短视频搜索等功能,打造"人-车-环境"跨模态交互体验。专属AI助手支持超700项功能语音调用,实现"所说即所得"的智能交互。长安马自达与火山引擎达成深度合作,将持续推进大模型在智能座舱领域的创新应用。

  • 全球首创!阿里巴巴AI攻克“癌症之王”早筛难题 获FDA最高级别认证

    快科技4月18日消息,据报道,阿里巴巴AI模型DAMO PANDA被FDA认定为突破性医疗器械”。DAMO PANDA是阿里巴巴达摩院研发的胰腺癌筛查AI模型,可精准识别平扫CT影像中的细微病灶,攻克了胰腺癌早期筛查的国际难题。这也是中国头部科技企业首次拿下该项权威认可。达摩院在国际上率先提出平扫CT AI”筛查方案,联合全球顶尖医学机构开发出DAMO PANDA模型。测试数据显示,其筛查敏感

  • 全球首个女性肿瘤AI大模型 “木兰”正式进入临床应用

    快科技5月14日消息,华中科技大学宣布,全球首个女性肿瘤AI大模型木兰”,正式进入临床应用阶段。目前,公众可通过华中科技大学同济医院”公众号或掌上同济”APP,在互联网医院下的同济木兰AI咨询”栏目中获得免费服务。未来,该模型还将通过更多手机端线上平台、电脑端应用以及各级医疗机构等多种渠道,向公众开放。据介绍,木兰”由华中科技大学同济医学院附属同济医院主导研发,该模型以国内外权威的女性肿瘤医疗指南和高质量专家共识为基础,融合了同济医院近20年来的高质量病例数据。还整合了中国工程院院士、同济医院妇产科学系主任

  • 阿里千问3登顶全球最强开源模型 已在通义App上线

    阿里集团推出新一代开源AI模型"通义千问3"(Qwen3),包含8款不同规格的混合推理模型。旗舰型号Qwen3-235B采用混合专家架构,创下国产模型性能新纪录;Qwen3-32B则以部署成本低、运行稳定见长。该系列在逻辑推理、编程、翻译等专业领域表现卓越,用户可通过通义App和网页版体验。升级后的通义App整合问答对话、图像理解与生成等多项功能,持续强化代码生成、数学解题等专业场景应用能力,致力于打造实用性强的个人AI助手。

  • AI日报:小米首个推理大模型开源Xiaomi MiMo;快手上线AI笔记工具“喵记多”;腾讯拆分AI团队

    本文汇总了AI领域最新动态:1)小米开源70亿参数大模型Xiaomi MiMo,在数学推理和代码竞赛中超越OpenAI和阿里模型;2)快手推出AI笔记工具"喵记多",简化笔记管理;3)Luma AI发布电影级镜头控制API,降低视频生成门槛;4)腾讯重组AI团队,加大语言模型研发投入;5)Anthropic为Claude引入新语音"Glassy";6)谷歌NotebookLM新增50+语言音频概述功能;7)xAI将发布Grok3.5模型;8)Meta推出独立AI助手应用挑战ChatGPT;9)OpenAI紧急修复GPT-4o"谄媚"问题;10)Mac本地AI助手Simular升级隐私保护;11)CameraBench项目帮助AI理解镜头运动;12)谷歌推出个性化语言学习AI工具。

  • 一加全球首发!天玑9400e官宣:高通劲敌

    联发科宣布天玑9400系列旗舰芯片将新增成员天玑9400E,由一加Ace 5竞速版全球首发搭载。该芯片采用台积电4nm工艺,配备4颗Cortex-X4超大核和4颗Cortex-A720大核,Aztec 1440p测试成绩达95fps,综合性能超越骁龙8s Gen4。作为天玑9300+的升级版,天玑9400E定位介于天玑9400和天玑9300+之间,延续全大核架构设计。一加本月还将发布搭载天玑9400+的一加Ace 5至臻版。