首页 > 业界 > 关键词  > 混合专家模型最新资讯  > 正文

华为:让DeepSeek的“专家们”动起来,推理延迟降10%!

2025-05-20 13:43 · 稿源: 量子位公众号

声明:本文来自于微信公众号 量子位(ID:QbitAI),作者:金磊,授权站长之家转载发布。

要问最近哪个模型最火,混合专家模型MoE,Mixture of Experts)绝对是榜上提名的那一个。

它的巧妙之处,就在于把不同的任务分配给擅长处理的专家网络,让整个系统性能得以提升。

但你知道吗?

正是这个关键的专家网络,也是严重影响系统推理性能的因素之一。

因为在大量任务来临之际(尤其是超大规模时),MoE并不是以“雨露均沾”的方式去分配——专家网络们的负载均衡问题,就会显得尤为突出。

这个问题的根源,是因为某些专家网络总是被频繁调用(热专家),而另一些专家网络则鲜有机会派上用场(冷专家)。

没错,MoE里的“专家们”也是有冷热之分的,而且被调用频率的差距甚至可以达到一个数量级以上!

如此负载不均衡的现象,就会导致整个系统推理的时间被延长,以及还有资源利用率、系统性能受限等问题。

那么此局又该如何破解?

别急,华为团队已经给出了一种有效解法,直接让DeepSeek-V3在理论上的推理延迟可降低约10%、吞吐量可提升约10%

值得一提的是,团队还将在近期准备把这个解法全面开源了;那么接下来,我们就来深入了解一下。

华为的刀法:OmniPlacement

针对专家们冷热不均的问题,华为优化的刀法,叫做OmniPlacement

简单来说,它的工作原理是这样的:

通过专家重排、层间冗余部署和近实时动态调度,显著提升MoE模型的推理性能。

具体可以分为三步走:

第一刀:基于计算均衡的联合优化

在这一步中,华为团队通过分析专家的活跃度(激活数据),先是识别出了忙碌的热专家和清闲的冷专家。

然后将提出的一种基于计算均衡的联合优化算法OmniPlacement用了上去。

这个算法会根据专家调用频率和计算需求来优化部署的顺序,这样就会显著降低负载不均的现象。

具体来说,OmniPlacement算法的特点如下:

  • 动态优先级调整:通过实时统计专家调用频率,动态调整专家的优先级和节点分配,确保高频专家优先部署在计算能力较强的节点上。

  • 通信域优化:算法分析批次内激活卡数,优化跨节点通信域的范围,减少通信延迟。相比传统的静态分配方法,本算法显著降低了通信开销。

  • 层间差异化部署:允许不同层根据负载特性设置不同的专家部署策略,支持非均匀冗余次数配置,从而更好地适应层间负载差异。

图片

相同数据条件下,EPLB与OmniPlacement算法,每层设备最大激活数理论对比

第二刀:层间高频专家冗余部署

刚才的步骤是面向冷热专家整体,那么这一步则是剑指热专家。

为了缓解热专家的压力,华为团队还提出了一种层间冗余部署的策略——

通过为高频调用专家分配额外的冗余实例,降低跨节点通信开销,从而提升系统吞吐量。

这个策略的创新点在于:

  • 动态资源分配:根据实时计算资源占用情况和专家调用频率,动态调整冗余实例的分配比例。系统通过预测模型提前分配资源,减少冷热专家间的性能差距。

  • 层间差异化配置:不同层根据负载需求设置不同的冗余次数,增强对层间负载差异的适应能力。例如,高负载层可分配更多的冗余实例,而低负载层则减少冗余以节省显存。

  • 预测性分配:结合历史激活数据和负载预测模型,系统能够提前优化资源分配,降低突发负载对系统性能的影响。

图片

冗余不同层数排布的理论热力图

第三刀:近实时调度与动态监控机制

为了让系统能更灵活地应对各种变化,在实际运行中快速做出反应,研究团队设计了一套类似 “智能管家” 的方案——

近实时调度与动态监控机制。

其具体包含的子模块如下:

  • 近实时调度:通过实时统计数据流特性,动态调整专家分配以适应输入数据的变化。调度算法能够在毫秒级时间内收敛到优化的静态专家部署模式,确保推理过程的高效性和一致性。该机制通过迭代优化专家分配,显著降低了动态调整的计算开销。

  • 动态监控:实时跟踪专家激活数据和系统资源占用情况,为调度决策提供准确依据。监控任务在独立的计算流中运行,避免对推理主流程的干扰,保障系统整体效率。

  • 动态专家权重访问与摆放:通过层间流水线设计,实现专家权重和分配的动态调整。系统在推理过程中并行处理权重更新和数据流分配,支持高效的专家动态摆放。流水线设计允许在不中断推理流程的情况下完成权重调整,显著降低高负载场景下的推理延迟。

这套机制通过两个关键设计大幅提升了系统性能:

首先采用多任务并行处理技术,让系统反应更快、调整更灵活;其次独创性地将监控和调度功能分开运行。

这样既保证了实时监控的准确性,又避免了监控程序拖慢系统速度,使整个系统运行更加稳定可靠。

图片

近实时调度理论效果与收敛性

为了支持上述技术的稳定运行,团队还开发了适用于vLLM的推理优化框架OmniPlacement,其核心特点如下:

  • 高兼容性:框架支持多种MoE模型架构,能够无缝集成到现有的推理系统中。

  • 低时延开销:通过优化数据处理和调度流程,框架显著减少了额外计算开销,确保推理性能不受影响。

  • 模块化设计:框架包含数据统计、算法运行和专家调度三大模块,各模块功能解耦,支持功能扩展和维护。模块化设计便于快速迭代和定制化开发。

  • 可扩展性:框架支持动态添加新的负载均衡算法和调度策略,适应未来MoE模型的复杂需求。

OmniPlacement采用模块化设计,把核心算法和推理流程分开处理,就像把汽车的发动机和控制系统分开优化一样。

这样设计有两个突出优势:

一是专门负责任务调度的模块可以独立工作,不会干扰主系统的运行效率;二是整个框架可以根据不同需求灵活调整,为大型AI模型的稳定运行提供了坚实的底层支持。

DeepSeek V3系统延迟理论可直降10%

在了解完华为的“刀法”之后,我们再来看下“疗效”

华为团队把这套优化方法在DeepSeek-V3上进行了全面验证,实验环境包括多节点GPU集群和高并发推理场景。

得到了如下的测试结果:

  • 推理延迟:相比基线方法(未优化负载均衡的MoE模型),推理延迟平均降低约10%。延迟的减少主要得益于动态专家分配和通信域优化,显著改善了用户体验。

  • 吞吐量:系统吞吐量提升约10%,反映了资源利用率的显著提高。特别是在高并发场景下,冗余部署和动态调度有效缓解了负载瓶颈。

  • 系统稳定性:在动态输入和高负载场景下,系统保持高效运行,未出现性能波动或服务中断。动态监控机制确保了系统对突发负载的快速响应。

图片

OmniPlacement与基线和BestEP的性能对比

进一步的分析表明,OmniPlacement在不同规模的MoE模型和输入数据分布下均表现出良好的适应性。

并且从实际测试证明来看,它不仅能大幅提升运算效率,还能更合理地利用计算资源,同时保持系统稳定运行。

这为今后在实际应用中部署大型MoE模型提供了坚实的技术保障。

最后值得一提的是,华为团队不仅是发布优化方案这么一个动作,更是要将这个方法在近期全面开源

完整技术报告:

https://gitcode.com/ascend-tribe/ascend-inference-cluster/blob/main/OmniPlacement/OmniPlacement-%E6%98%87%E8%85%BE%E8%B6%85%E5%A4%A7%E8%A7%84%E6%A8%A1MoE%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86%E8%B4%9F%E8%BD%BD%E5%9D%87%E8%A1%A1%E6%8A%80%E6%9C%AF%E6%8A%A5%E5%91%8A.pdf

技术博客:

https://gitcode.com/ascend-tribe/ascend-inference-cluster/blob/main/OmniPlacement/ascend-inference-cluster-omniplacement.md

举报

  • 相关推荐
  • DeepSeek带飞寒武纪

    寒武纪凭借AI芯片业务实现扭亏为盈,2024年首次实现上市后盈利,2025年Q1营收11.11亿元同比暴增4230%,净利润3.55亿元。这家曾连亏8年、累计亏损54亿元的"中国版英伟达",因美国对H20芯片出口管制获得市场红利,但客户集中度过高(前五大客户贡献94.63%营收)和现金流波动仍是隐忧。当前国产芯片迎来发展机遇,华为昇腾、壁仞等企业纷纷抢占市场,行业竞争日趋激烈。

  • DeepSeek爆火100天,大厂又找回初心了

    DeepSeek R1模型发布100天后,中国AI行业竞争格局被彻底重构。该模型3个月内用户突破1.9亿,成为国内最大AI原生应用。腾讯、百度等科技大厂纷纷接入,其中腾讯元宝APP借助DeepSeek流量一度登顶苹果应用下载榜。字节和阿里选择自研路线,字节推出"深度思考"功能,阿里则专注开源模型研发。随着DeepSeek热潮减退,豆包重回下载量榜首,元宝跌出前20。科技大厂在享受DeepSee

  • DeepSeek上新!开源发布DeepSeek-Prover-V2-671B新模型

    快科技4月30日消息,今日,DeepSeek 今日在 AI 开源社区 Hugging Face 发布了一个名为 DeepSeek-Prover-V2-671B 的新模型。据介绍,DeepSeek-Prover-V2-671B 其参数量达到6710亿,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多种计算精度,方便模型更快、更省资源地训练和部署。在模型架构上,该模型使用了DeepSeek-V3架构,采用MoE(混合专家)模式,具有61层Transformer层,7168维隐藏层。同时支持超长上下文,最大位置嵌入达163840,使其能处理复杂的数学证明,并且采用了FP8量化,可通过量化技术减小模型大小,提

  • 华为鸿蒙电脑接入DeepSeek:生产力更强

    官方介绍,鸿蒙电脑历经五年布局,集结10000多名顶尖工程师,联合20多家研究所,积累超2700项核心专利。

  • 初中老师如何用deepseek 和 Kimi无痛做课件

    本教程指导初中教师如何利用Deepseek和Kimi两款AI工具高效完成备课全流程。Deepseek用于生成教学设计方案和PPT大纲,Kimi则根据大纲快速生成精美课件。操作步骤:1)在Deepseek输入教学需求生成教学设计;2)用Deepseek生成PPT大纲;3)将大纲粘贴至Kimi PPT助手一键生成课件。该方法特别适合日常备课、临时调课需求,能大幅提升备课效率,让教师既省时又高效。

  • DeepSeek们越来越聪明,却也越来越不听话了。

    ​在今年,DeepSeek R1火了之后。 几乎快形成了一个共识,就是: AI推理能力越强,执行任务时就应该越聪明。 从2022年Chain-of-Thought横空出世,到今天Gemini2.5Pro、OpenAI o3、DeepSeek-R1、Qwen3,这些旗舰模型的统治性表现,我们一直相信,让模型先想一想,是一个几乎不会出错的策略。 不过,这种聪明,也会带来一些副作用。 就是提示词遵循能力,变得越来越差。 换句话说,就是

  • AI简历教程!用 deepseek 一键生成高质量简历

    本文介绍如何利用AI工具Deepseek快速制作专业简历。传统简历制作依赖WPS模板或作图软件,过程繁琐。现在通过Deepseek平台,只需输入自然语言指令(如工作经验、技能等关键信息),系统即可自动生成排版精美的HTML版简历,还能转换为PDF格式。操作流程分三步:1.访问官网输入需求指令;2.查看并运行生成的HTML代码;3.保存文件或转为PDF。该工具特别适合求职者快速制作突出个人优势的专业简历,大幅提升求职效率。

  • 国羽加油口号是DeepSeek想的 网友:这个口号好厉害

    中国羽毛球队在2025年苏迪曼杯首轮比赛中5-0战胜阿尔及利亚队,赛前全队高喊"羽啸鼓浪巅,中国剑指天!"的霸气口号。这句由DeepSeek团队借助科技力量创作的口号,既体现了羽毛球运动精神,又展现了队员们的昂扬斗志。口号成为国羽标志性语言,激励队员为国争光。此次合作彰显科技与体育的完美结合,也体现了DeepSeek对体育事业的支持。未来期待DeepSeek继续发挥创意技术优势,为更多体育赛事提供支持,共同推动中国体育事业发展。

  • 宝马中国将接入DeepSeek!爆新世代车型搭载AI智能体

    宝马中国4月27日宣布接入深度求索(DeepSeek)AI大模型,深化本土AI生态布局。这是继宝马与阿里巴巴达成AI大语言模型合作后,再次联手中国科技企业。从今年三季度起,搭载第九代宝马操作系统的多款国产新车将率先应用该技术,通过智能个人助理提升人机交互体验。宝马还计划将DeepSeek功能应用于新一代国产车型。此前3月,宝马已与阿里云合作开发车载AI引擎,双方在上海车展展示了识别率达99%的智能语音交互系统。此次合作将突破车载场景限制,实现车辆与外部世界的智能连接,为用户提供个性化出行体验。

  • 深夜突袭,DeepSeek-Prover-V2加冕数学王者!671B数学推理逆天狂飙

    DeepSeek发布数学推理模型DeepSeek-Prover-V2,包含7B和671B两个参数版本。该模型采用"递归+强化学习"训练方法,在MiniF2F测试集上达到88.9%通过率,解决了PutnamBench中的49道题目。关键技术包括:1) 使用DeepSeek-V3分解复杂定理生成子目标;2) GRPO算法从多个候选方案中自动学习最优解;3) 通过思维链整合非形式化推理与形式化证明。模型在AIME竞赛题和教科书题目上也表现优异,7B小模型意外在部分问题上超越大模型。论文指出该方法为通向AGI提供了正确路径,未来将扩展至IMO级别数学难题。

热文

  • 3 天
  • 7天