首页 > 业界 > 关键词  > FlashDecoding++最新资讯  > 正文

GPU推理提速4倍!FlashDecoding++技术加速大模型推理

2023-11-06 13:50 · 稿源:站长之家

要点:

1. FlashDecoding++ 是一种用于加速大模型(LLM)推理任务的新方法,可以将GPU推理提速2-4倍,同时支持NVIDIA和AMD的GPU。

2. FlashDecoding++ 的核心思想包括异步方法实现注意力计算的真正并行以及优化"矮胖"矩阵乘计算,以降低LLM的推理成本并提高推理速度。

3. 无问芯穹是一家创立于2023年5月的公司,旨在打造大模型软硬件一体化解决方案,他们已经将FlashDecoding++集成到其大模型计算引擎"Infini-ACC"中,实现了256K上下文的处理能力。

站长之家(ChinaZ.com)11月6日 消息:推理大模型(LLM)是AI服务提供商面临的巨大经济挑战之一,因为运营这些模型的成本非常高。FlashDecoding++ 是一种新的技术,旨在解决这一问题,它通过提高LLM推理速度和降低成本,为使用大模型赚钱提供了新的可能性。

image.png

论文地址:https://arxiv.org/pdf/2311.01282.pdf

FlashDecoding++的核心思想包括异步方法实现注意力计算的真正并行以及优化"矮胖"矩阵乘计算。这些技术可以将GPU推理提速2-4倍,同时支持NVIDIA和AMD的GPU。这意味着LLM的推理任务将更加高效,可以在更短的时间内完成。

无问芯穹是FlashDecoding++的背后力量,他们是一家创立于2023年5月的公司,旨在打造大模型软硬件一体化解决方案。他们已经将FlashDecoding++集成到其大模型计算引擎"Infini-ACC"中,实现了256K上下文的处理能力,这是目前全球最长的文本长度。

FlashDecoding++的出现为使用大模型赚钱提供了更好的机会,因为它可以降低运营成本,提高效率,同时支持多种GPU后端。这对AI服务提供商和大模型创业公司都是一个重要的突破。

举报

  • 相关推荐
  • 模型推理协作正式开启,魔乐社区,让模型跑遍“中国芯”

    魔乐社区启动"模型推理适配协作计划",旨在解决国产算力平台与大模型间的适配难题。该计划通过开源协作模式,联合开发者、芯片厂商等生态伙伴,构建从工具链到知识库的全栈支持体系,打造适配成果共享平台。重点支持开源大模型在国产硬件及多样化推理引擎上的高效运行,提供模型转换工具和优化指南,降低开发门槛。目前已有文心大模型4.5等首批适配成果上线,并联合多家国产芯片厂商共建测试资源和技术支持体系。该计划将推动国产算力自主化,重塑开源AI生态协同范式,加速大模型在国产平台的迁移应用进程。

  • OpenAI 提升o3多模态模型推理实力,微美全息(WIMI.US)加速引领产业新变革征程

    OpenAI推出突破性的o3推理模型,首次实现图像直接融入推理过程,在多模态基准测试V* Bench上准确率达95.7%。DeepSeek完成R1模型升级,上下文窗口从12K扩展至23K,幻觉率降低45%-50%。行业呈现开源趋势,DeepSeek开源策略促使多家企业跟进,OpenAI也考虑开源。微美全息加速布局多模态大模型,计划提供实时多模态AI体验。专家指出AI发展重心正从大模型向智能体演进,开源技术显著降低训练门槛,提升泛化能力,为多模态智能探索开辟新路径。企业需紧跟趋势把握机遇,在大模型驱动的新时代找准定位。

  • 有道14B低成本轻量模型“子曰3”开源,数学推理性能超越大模型

    网易有道6月23日开源国内首个专注数学教育的"子诳3"大模型系列数学模型(Confucius3-Math)。该模型在单块消费级GPU上高效运行,在多项数学推理任务中性能超越更大规模的通用模型,高考数学题测试得分达98.5分。其训练成本仅2.6万美元,推理性能是DeepSeek+R1的15倍,服务成本低至每百万token0.15美元,大幅降低教育AI应用门槛。该开源模型为教育公平提供低成本、高性能的AI�

  • MiniMax深夜开源首个推理模型M1,这次是真的卷到DeepSeek了。

    ​不知道还有多少人记得,AI行业的六小虎。 行业内都在说,他们已经寂静好久了。 上一次相关的项目发布,还是前一段时间我写的MiniMax声音模型的更新,Speech-02。 而昨晚凌晨将近12点的时候,又是MiniMax,居然在X上,预告了他们一整周的发布计划。

  • 苹果炮轰AI推理模型:全是假思考!所谓思考只是一种假象

    有人总结到:苹果刚刚当了一回马库斯,否定了所有大模型的推理能力。 苹果团队认为,现有评估主要集中在既定的数学和编码基准上,看模型最终答案是否正确,但可能存在模型训练时见过类似题目。 并且,这些评估大都缺乏对思考过程质量”的分析,比如中间步骤是否逻辑一致、是否绕弯路等。 为了更客观测试推理模型的推理能力,他们设计了4类谜题环境:汉诺塔、�

  • @开发者们:百度文心大模型4.5系列模型开源,国内首发平台GitCode现已开放下载!

    6月30日,百度文心大模型4.5系列正式开源并在国内领先的开源平台GitCode首发上线。该系列包含10款模型,涵盖47B和3B参数的混合专家(MoE)模型及0.3B的稠密参数模型,采用创新的多模态异架构结构实现跨模态知识融合。模型基于飞桨框架开发,训练效率达47% MFU,在文本和多模态基准测试中达到SOTA水平。所有模型按Apache2.0协议开源,配套产业级开发套件支持多种芯片部署。GitCode平台已汇聚620万用户,为AI开发者提供代码托管、协同开发等全流程支持。此次开源将推动中国AI生态创新,加速大模型技术产业化应用。

  • 6个AI大模型大战2025年高考数学新一卷:数学题推理能力均显著提升

    ​近日,随着高考的圆满结束,一场别开生面的“数学擂台赛”在各大AI大模型间悄然展开。多家知名科技公司的大模型被邀请参与2025年数学新课标Ⅰ卷中的14道客观题测试,以此检验它们在逻辑推理和数学能力上的实力。此次测试题目包含8道单选题、3道多选题以及3道填空题,满分设定为73分,且测试过程严格遵循高考判分原则,确保结果的公正性与准确性。 测试成绩揭晓�

  • AI日报:腾讯混元3D 2.1大模型开源;字节跳动AI Lab负责人李航卸任;OpenAI Codex 全新升级

    本文介绍了AI领域最新动态:1)腾讯开源混元3D2.1大模型,提升3D生成质量;2)OpenAI Codex升级,优化代码生成功能;3)字节跳动AI Lab负责人李航卸任;4)微软发布700个AI应用案例;5)微软推出Code Researcher工具,解决58%系统崩溃问题;6)Observer AI实现屏幕操作自动化;7)Genspark发布AI浏览器;8)麻省理工用AI技术3.5小时修复15世纪名画;9)蚂蚁集团推出开源多模态GPT-4o模型Ming-Omni;10)MagicTryOn视频换衣框架;11)字节跳动发布实时互动AI视频生成模型Seaweed APT2;12)ChatGPT搜索功能升级;13)字节跳动与老凤祥合作开发AI智能眼镜。

  • 我们跟美团技术的同学聊了聊“NoCode”的背后,顺手用它搭了个社区……

    ​我不是一个“懂代码”的人。 作为一家日益专注AI的科技内容社区的CEO,我的团队与AI 创业者和研究人员进行访谈,发布文章,举办各种各样的AI 论坛、黑客马拉松和workshop;我还在硅谷成立了一个 叫GenAI Assembling的AI 开发者社区,定期举办线下活动和闭门讨论。 我们不仅有读者,还有社区用户,这意味着我们有大量的前端交互页面需要生成——AI 从业者和爱好者需要点击它

  • DigitalOcean 携手 AMD 推出 AMD Instinct MI300X GPU Droplet,加速 AI 创新

    DigitalOcean与AMD达成合作,将推出搭载AMD Instinct MI300X GPU的云服务器,支持AI/ML/HPC工作负载。该GPU具备192GB HBM3内存,能完整加载数十亿参数模型,显著提升训练和推理效率。服务定价每小时1.99美元起,支持1-8个GPU配置,并与Kubernetes无缝集成。未来还将推出MI325X GPU,并面向中国市场提供服务。此次合作旨在为开发者提供经济高效的AI开发解决方案,简化云端GPU部署流程。