首页 > 业界 > 关键词  > LLaMA最新资讯  > 正文

Buddy Compiler打通LLaMA 2端到端推理

2023-11-23 14:03 · 稿源:站长之家

要点:

  • LLaMA2端到端推理打通!结合 MLIR 和 PyTorch 的编译生态,中国团队展示了 Buddy Compiler 的前端部分实现,可以覆盖 LLaMA 计算图,进行 MLIR 转换和部分优化。

  • Buddy Compiler 基于 PyTorch 和 MLIR 实现了 LLaMA 的端到端推理通路,通过 Buddy Compiler 工具链进行优化和下降,最终生成可执行文件,实现了从 AI 模型到硬件架构的编译流程。

  • 技术路线标准化、上手门槛低和优化上限高是整个软硬件协同设计生态的重要原则,Buddy Compiler 致力于实现这一目标,并将 PyTorch 和 MLIR 作为关键组成部分,提供了简化和解耦的开发流程。

站长之家(ChinaZ.com)11月23日 消息:Buddy Compiler 选择使用 TorchDynamo 作为 Trace 工具对接 AI 模型,并使用 Aten IR 作为对接层级,通过 MLIR Python Bindings 实现 Dynamo Compiler 生成 TOSA/Linalg Ops,从而实现了从 PyTorch 到 MLIR 的转换。

Buddy Compiler 是一个结合了 MLIR 和 PyTorch 的编译生态的工具,它实现了 LLaMA 的端到端推理通路。通过 Buddy Compiler,我们可以将 AI 模型从 PyTorch 转换为 MLIR,并进行优化和下降,最终生成可执行文件。

image.png

Buddy Compiler 的设计原则是技术路线标准化、上手门槛低和优化上限高。为了实现这一目标,Buddy Compiler 选择使用 TorchDynamo 作为 Trace 工具对接 AI 模型,并使用 Aten IR 作为对接层级。通过 MLIR Python Bindings 实现的 Dynamo Compiler 可以将 PyTorch 的 Aten IR 转换为 MLIR 的 TOSA/Linalg Ops。

Buddy Compiler 的编译通路可以面向通用硬件进行优化。它使用了 MLIR Core Dialect 进行实现,从而实现了最大化的复用,并且与所有 LLVM/MLIR 的工具兼容。在优化方面,Buddy Compiler 采用了针对循环的并行计算优化和针对矩阵乘法的向量化优化。

它还可以生成面向特定加速器的代码,例如 Gemmini 加速器。目前,Buddy Compiler 已经在 X86AVX512平台上进行了测试,同时还在进行 Arm Neon 和 RISC-V Vector Extesion 的广泛测试。未来,Buddy Compiler 还计划支持 GPU 的优化,并增加前端的覆盖程度,以及将多模态大模型编译到多种硬件平台上。

总的来说,Buddy Compiler 通过结合 MLIR 和 PyTorch 的编译生态,实现了 LLaMA 的端到端推理通路。它的设计原则是标准化技术路线、降低上手门槛和提高优化上限。通过 Buddy Compiler,我们可以将 AI 模型从 PyTorch 转换为 MLIR,并进行优化和下降。

Buddy Compiler 的编译通路可以面向通用硬件进行优化,并已在 X86AVX512平台上进行了测试。未来,Buddy Compiler 还计划支持更多的硬件平台,并增加前端的覆盖程度。通过 Buddy Compiler,我们可以更好地利用软硬件协同设计,实现高效的大模型推理。

举报

  • 相关推荐
  • 科普 | 读懂HBM和DRAM,才懂AI算力未来

    在AI算力需求激增的背景下,存储芯片成为决定计算性能的关键。文章重点分析了三大易失性存储技术:SRAM凭借高速读写特性在CPU缓存中不可替代;DRAM作为数字世界的“主内存”,在容量与速度间实现平衡;HBM则通过3D堆叠架构革命性提升带宽,突破AI训练中的“内存墙”瓶颈。当前HBM需求爆发式增长,预计2025年市场规模将达340亿美元。中国企业在DRAM领域逐步突破,并开始布局HBM技术,正通过持续技术积累提升在全球半导体生态中的地位。

  • 猛玛LARK MAX 2荣登《财富》中国最佳设计榜:定义无线麦克风新标杆

    猛玛无线监听麦克风LARK MAX2凭借颠覆性创新入选《财富》中国最佳设计榜。产品通过2.4G自适应跳频技术实现25毫秒无感延迟和百米稳定监听,彻底解决传统有线设备对创作自由的束缚。其14克超轻机身配合"无Logo反戴"设计,在专业场景中兼顾收音效果与画面美感。该产品经权威声学测试,在音频保真度、信噪比等核心指标均达专业录音级水准,彰显了猛玛在声学技术研发的深厚实力。

  • AI日报:美团LongCat-Flash-Omni发布;Qwen3-Max上线深度思考功能;百度“文心”5.0重磅回归

    本期AI日报聚焦多领域技术突破:美团发布全模态交互模型LongCat-Flash-Omni;阿里通义千问Qwen3-Max上线深度思考功能;百度文心5.0升级多模态生成能力;谷歌确认Gemini3年内发布并整合至苹果Siri;OpenAI向多国开放Sora2视频工具;云存储与AI开发工具持续优化,展现行业加速迭代态势。

  • 活字格通过信通院智能体专项测试,以All-in-One能力加速企业AI落地

    葡萄城自主研发的活字格低代码开发平台近日通过中国信息通信研究院“智能体平台”能力专项测试,成为首批完成测试的企业。该平台凭借All-in-One智能体开发架构,覆盖数据管理、模型接入、插件开发等八大能力域,具备强集成、高安全、易扩展特性。测试结果显示其AI开发能力达行业认可水平,可为企业提供低门槛智能体落地解决方案,已在制造、政务、医疗等领域深度应用,助力企业数字化转型。

  • 何小鹏:大众将成小鹏第二代VLA首发客户

    在今日举办的2025小鹏科技日”发布会上,小鹏汽车董事长何小鹏官宣第二代VLA。 他还重磅宣布称,大众汽车成为了小鹏第二代VLA首发客户,同时小鹏自研的图灵AI芯片也获得大众定点。 据悉,第二代VLA也即小鹏首个量产物理世界大模型,既是动作生成模型,也是理解和推演的物理世界

  • 连续三年折桂!瓴羊Dataphin荣膺2025年度DAMA数据治理优秀产品奖!

    2025全球数据管理峰会以“数据×人工智能”为主题,聚焦行业最佳实践,构建从理念探讨到技术落地的完整交流链。会上,瓴羊与DAMA联合发布数据治理实践证书体系,覆盖数据分析等认证,旨在提升全民数据素养。瓴羊副总裁王赛提出Data与AI双向赋能重构企业数字化生产力,强调未来系统需支持自主决策与自动化执行。以快消品牌为例,通过Quick BI智能分析工具实现业务效率提升。瓴羊Dataphin平台助力企业构建AI友好型数据模型,连续三年获“数据治理优秀产品”大奖,提供全链路数据服务,加速释放数据价值。

  • 百度智能云联合昆仑芯、HAMi,落地双模式算力调度方案,提升算力利用率

    百度智能云联合昆仑芯与CNCF开源项目HAMi,推出基于昆仑芯P800的XPU/vXPU双模式算力调度方案。该方案已在金融客户集群落地,支持智能客服、营销辅助等十余类AI业务,兼顾稳定性与灵活性。XPU整卡模式通过拓扑寻优调度保障大规模训练性能,vXPU虚拟化模式以多粒度切分实现单卡多任务,最大化资源利用率。双模式协同让国产算力高效匹配业务需求,同时提供自动化调度与人工调节结合的灵活管理能力。

  • 何小鹏首次披露物理AI巨大进展 发布第二代VLA大模型

    小鹏汽车在2025科技日发布第二代VLA大模型,颠覆传统“视觉-语言-动作”架构,实现端到端直接输出动作指令,开创物理模型新范式。该模型具备动作生成与物理世界理解能力,参数规模达数十亿级,训练数据近1亿clips。基于2250TOPS算力的Ultra车型成功搭载,推动智驾技术显著进化,同步发布“小径NGP”功能,复杂小路接管里程提升13倍。行业首发的无导航辅助驾驶Super+LCC实现全球覆盖。何小鹏表示,大模型将成为物理AI世界的操作系统,并宣布与大众汽车达成战略合作,共同推进智能出行发展。

  • 三星Galaxy Z Fold7以创新AI体验实现全场景“一步智联”

    三星Galaxy Z Fold7通过Galaxy AI与多模态技术深度融合,重新定义智能手机价值。其极致轻薄折叠设计结合8英寸沉浸屏,搭载升级版Bixby实现语音、文本、视觉的智能交互,支持多任务并行处理。"即圈即搜"简化信息获取,AI助手能转录音频、生成摘要、规划行程,并具备专业影像编辑能力。从办公到生活场景,该设备以直观操作提升效率,成为用户可靠的智慧伴侣。

  • 五剑齐发!华为Mate 80系列还有散热风扇版:Mate史上第一次

    博主爆料华为Mate 80系列将推出五款机型,包括标准版、Pro版、RS版及首次搭载主动散热风扇的"风扇版"。该系列采用内置风扇主动散热方案,通过空气交换快速导出热量,相比传统VC均热板效率更高,能保障芯片持续高性能运行。新机预计11月正式发布,将成为华为史上阵容最强的Mate旗舰。

今日大家都在搜的词: