首页 > 传媒 > 关键词  > 多模态理解最新资讯  > 正文

开源即支持!基于昇腾MindSpeed MM玩转InternVL3多模态理解模型

2025-04-17 17:54 · 稿源: 站长之家用户

多模态理解领域当前已成了各家AI大模型公司“军备竞赛”的关键点之一,国内外知名AI大模型公司都争相通过发布先进的多模态大语言模型展现其在多模态理解领域的前沿能力。近期,上海AI实验室推出了其比较新的多模态大语言模型InternVL3 系列,相比上一代InternVL2. 5 模型,该模型展现出卓越的多模态感知和推理能力,同时进一步扩展了其工具使用、GUI代理、工业图像分析等多模态能力。此前MindSpeed MM仓库一直同步开源InternVL2 系列、InternVL2. 5 系列等模型,InternVL3 系列一经发布开源,即在MindSpeed MM中开箱即用并同步开源,当前已支持在线推理功能并基于InternVL2. 5 给出参考的微调实践。MindSpeed MM是面向大规模分布式训练的昇腾多模态大模型套件,基于MindSpeed Core实现多模态模型的较好的性能优化,为开发者提供有效易用的开发体验。

基于MindSpeed MM的

InternVL系列训练优化特性

InternVL系列是多模态理解模型,基于其异构特点以及该模型存在明显的负载不均衡问题,MindSpeed MM对InternVL系列模型在使用了融合算子、分布式优化器及流水调度优化等常用特性的基础上,同时使能多模态异构流水线并行、动态流水线并行、数据分桶负载均衡、虚拟流水线并行、分离部署等优化加速特性,实现了较好的性能优化。(其中多模态异构流水线并行、动态流水线并行、数据分桶负载均衡等特性的介绍,在之前的文章(多模态理解SOTA模型开箱即用,MindSpeed MM支持Qwen2.5-VL理想实践)已有介绍)

虚拟流水线并行:

常规的流水线并行切分粒度过大,运行过程中仍然有许多空泡(bubble),计算资源利用率仍有提高空间。虚拟流水线并行(VPP)能够在设备数量不变的情况下,分出更多的流水线阶段,以更多的通信量,换取空泡比率降低。MindSpeed MM将虚拟流水线并行同时应用到视觉模块和语言模块,并支持自定义的非均匀切分,进一步减小空泡比率,提升性能5%。

使用方式:在examples/internvl*/ finetune_internvl*B.sh中配置num-layers-per-virtual-pipeline-stage字段。(具体使用方式可参考仓库特性文档

https://gitee.com/ascend/MindSpeed-MM/blob/master/docs/features/virtual_pipeline_parallel.md) 

分离部署(Dist-train):

多模态模型的训练中,由于不同模态模型对算力和内存需求的异构性,不同模态模型的特出并行配置往往不一致,如果全部使用同一种并行配置,会造成负载不均衡、资源利用不充分。MindSpeed MM支持Dist-train功能,通过对异构模型配置不同的计算资源和并行配置,减少冗余的静态资源和异构模型间的空泡(bubble),使异构模型之间的运行速度达到特出匹配,提升性能15%。

使用方式:在examples/internvl*/ finetune_internvl*B.sh中添加参数--dist-train,同时配置model.json中的dist_config字段。(具体使用方式可参考仓库特性文档https://gitee.com/ascend/MindSpeed-MM/blob/master/docs/features/dist-train.md) 

基于MindSpeed MM的

InternVL3 视图理解体验

新一代的多模态理解模型InternVL3 有强大的视图理解能力,让我们快速体验一下。

图片理解体验:

Prompt:描述一下这张梗图并解释其中的笑点。

输出结果:

OCR识别:

Prompt:识别出图中的文字。

输出结果:

视频理解体验:

Prompt:请描述这个视频。

输出结果:

快速上手

基于MindSpeed MM玩转InternVL3

【环境安装】

模型开发时推荐使用配套的环境版本,详见仓库中的“环境安装”

https://gitee.com/ascend/MindSpeed-

MM/blob/master/examples/internvl3/README.md

仓库拉取:

1 git clone https://gitee.com/ascend/MindSpeed-MM.git

2 git clone https://github.com/NVIDIA/Megatron-LM.git

3 cd Megatron-LM

4 git checkout core_r0.8.0

5 cp -r megatron ../MindSpeed-MM/

6 cd ..

7 cd MindSpeed-MM

8 mkdir logs

9 mkdir dataset

10 mkdir ckpt

环境搭建:

torch npu 与 CANN包参考链接:安装包参考链接

https://gitee.com/link?target=https%3A%2F%2Fsupport.huawei.com%2Fenterprise%2Fzh%2Fascend-computing%2Fcann-pid-251168373%2Fsoftware

1 # python3.10

2 conda create -n test

3  python=3.10

4 conda activate test 

5

6 # 安装 torch 和 torch_npu,注意要选择对应python版本、x86 或arm的torch、torch_npu及apex包

7 pip install torch-2.1.0-cp310-cp310m-manylinux2014_aarch64.whl

8 pip install torch_npu-2.1.0*-cp310-cp310m-linux_aarch64.whl

10 # apex for Ascend 参考 https://gitee.com/ascend/apex

11 # 建议从原仓编译安装

12 

13 # 安装加速库

14 git clone

15  https://gitee.com/ascend/MindSpeed.git

16 cd 

17 MindSpeed

18 # checkout commit from MindSpeed core_r0.8.0

19 git checkout 3f09d6736571cf1e30f8ac97de77982d0ab32cc5

20 pip install -r requirements.txt

21 pip3 install -e .

22 cd

23  ..

24 # 替换MindSpeed中的文件

25 cp examples/internvl2.5/dot_product_attention.py MindSpeed/mindspeed/core/transformer/dot_product_attention.py

26 

27 # 安装其余依赖库

28 pip install -e .

【权重下载及转换】

InternVL3 权重下载:

权重转换:

MindSpeed-MM修改了部分原始网络的结构名称,使用mm-convert工具对原始预训练权重进行转换。该工具实现了huggingface权重和MindSpeed-MM权重的转换以及PP(Pipeline Parallel)的权重切分。

1 # 根据实际情况修改 ascend-toolkit 路径

2 source 

3 /usr/local

4 /Ascend/ascend-toolkit/set_env.sh

6 # 8B

7 mm-convert InternVLConverter hf_to_mm \

8   --cfg.mm_dir "pretrained/InternVL3-8B"

9  \  

10 --cfg.hf_config.hf_dir "raw_ckpt/InternVL3-8B" 

11 \ 

12  --cfg.parallel_config.llm_pp_layers [[28]] \

13  --cfg.parallel_config.vit_pp_layers [[28]] \

14   --cfg.trust_remote_code True

15 # 其中:

17 # mm_dir: 转换后保存目录

18 # hf_dir: huggingface权重目录

19 # llm_pp_layers: llm在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致

20 # vit_pp_layers: vit在每个卡上切分的层数,注意要和model.json中配置的pipeline_num_layers一致

21 # trust_remote_code: 为保证代码安全,配置trust_remote_code默认为False,用户需要设置为True,并且确保自己下载的模型和数据的安全性

【数据集准备及处理】

数据集下载:

用户需自行获取并解压InternVL-Finetune数据集到dataset/playground目录下,以数据集ai2d为例,解压后的数据结构如下:

1 $playground

2 ├── data

3    ├── ai2d 

4         ├── abc_images

5         ├── images

6 ├── opensource

7     ├── ai2d_train_12k.jsonl

【微调】

(1) 由于当前官仓还未开源微调代码和脚本,正式版的微调功能后续跟进上线;

(2)用户想尝鲜微调功能,可参考InternVL2. 5 的微调实践

(https://gitee.com/ascend/MindSpeed-MM/blob/master/examples/internvl2.5/README.md)

【推理】

1.准备工作

配置脚本前需要完成前置准备工作,包括:环境安装、权重下载及转换,详情可查看对应章节。(当前支持8B单卡推理)

推理权重转换命令如下:

1 # 根据实际情况修改 ascend-toolkit 路径

2 source /usr/local/Ascend/ascend-toolkit/set_env.sh

3  

4 # 8B

5 mm-convert InternVLConverter hf_to_mm \

6   --cfg.mm_dir "pretrained/InternVL3-8B" \

7   --cfg.hf_config.hf_dir "raw_ckpt/InternVL3-8B" \

8   --cfg.parallel_config.llm_pp_layers [[28]] \

9   --cfg.parallel_config.vit_pp_layers [[28]] \

10   --cfg.trust_remote_code True

2.配置参数

参数配置:

修改inference_8B.json文件,包括infer_data_type、file_path、prompts、from_pretrained以及tokenizer的from_pretrained等字段。

单图推理:

以InternVL3-8B为例,按实际情况修改inference_8B.json对应参数,注意tokenizer_config的权重路径为转换前的权重路径。

1 {

2     "infer_data_type": "image", 

3    "file_path": "./examples/internvl3/view.jpg",    #

4  按实际情况输入图片路径

5     "prompts": "Please describe the image shortly.", #

6  按实际情况输入提示词(支持中英文)

7     "model_id": "InternVLPipeline", 

8    "from_pretrained": "./pretrained/InternVL3-8B/release/mp_rank_00/model_optim_rng.pt", # 

9 注意路径要到

10 .pt

11 文件

12     ...

13     "tokenizer":{

14         ...

15         "autotokenizer_name": "AutoTokenizer",

16         "from_pretrained": "raw_ckpt/InternVL3-8B",

17         ...

18     },

19     ...

20 }

视频推理:

以InternVL3-8B为例,按实际情况修改inference_8B.json对应参数,注意tokenizer_config的权重路径为转换前的权重路径。(推理demo视频下载red-panda)

1 {

2     "infer_data_type": "video", 

3    "file_path": "examples/internvl3/red-panda.mp4",    #

4  按实际情况输入视频路径

5     "prompts": "Please describe the video shortly.", #

6  按实际情况输入提示词(支持中英文)

7     "model_id": "InternVLPipeline",

8     "from_pretrained": "./pretrained/InternVL3-8B/release/mp_rank_00/model_optim_rng.pt", #

9  注意路径要到

10 .pt

11 文件

12     ...

13     "tokenizer":{

14         ...

15         "autotokenizer_name": "AutoTokenizer", 

16        "from_pretrained": "raw_ckpt/InternVL3-8B", 

17        ...

18     }, 

19    ...

20 }

修改启动脚本:

按实际情况修改inference_internvl.sh脚本。

1 # 根据实际情况修改 ascend-toolkit 路径

2 source /usr/local/Ascend/ascend-toolkit/set_env.sh

3 ...

4 MM_MODEL="./examples/internvl3/inference_8B.json"

3.启动推理

bash examples/internvl3/inference_internvl.sh

【更多参数见MindSpeed MM仓库】

准备工作和参数说明见MindSpeed MM开源代码仓链接: 

https://gitee.com/ascend/MindSpeed-MM/tree/master/examples/internvl3

结语

MindSpeed MM是面向大规模分布式训练的昇腾多模态大模型套件,同时支持多模态生成及多模态理解,旨在为华为 昇腾芯片 提供端到端的多模态训练解决方案, 包含预置业界主流模型,数据工程,分布式训练及加速,预训练、微调、在线推理任务等特性。

由于当前InternVL3 系列模型的代码和训练微调功能等未完全发布开源,后续MindSpeed MM将基于InternVL3 系列模型同步上线更加丰富的特性,敬请期待。

欢迎关注MindSpeed MM:https://gitee.com/ascend/MindSpeed-MM

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • OpenAI 提升o3多模态模型推理实力,微美全息(WIMI.US)加速引领产业新变革征程

    OpenAI推出突破性的o3推理模型,首次实现图像直接融入推理过程,在多模态基准测试V* Bench上准确率达95.7%。DeepSeek完成R1模型升级,上下文窗口从12K扩展至23K,幻觉率降低45%-50%。行业呈现开源趋势,DeepSeek开源策略促使多家企业跟进,OpenAI也考虑开源。微美全息加速布局多模态大模型,计划提供实时多模态AI体验。专家指出AI发展重心正从大模型向智能体演进,开源技术显著降低训练门槛,提升泛化能力,为多模态智能探索开辟新路径。企业需紧跟趋势把握机遇,在大模型驱动的新时代找准定位。

  • 字节最强多模态模型登陆火山引擎!Seed1.5-VL靠20B激活参数狂揽38项SOTA

    5月13日,火山引擎在上海搞了场 FORCE LINK AI 创新巡展,一股脑发布了5款模型和产品,包括豆包・视频生成模型 Seedance1.0lite、升级后的豆包1.5・视觉深度思考模型,以及新版豆包・音乐模型。同时,Data Agent 和 Trae 等产品也有了新进展。

  • AI日报:阿里云通义灵码AI IDE上线;小米多模态大模型Xiaomi MiMo-VL开源;黑森林实验室推出FLUX.1Kontext

    【AI日报】今日AI领域重要动态:1)阿里云推出通义灵码AI IDE,集成千问3模型,显著提升编程效率;2)小米开源多模态大模型MiMo-VL-7B,性能超越更大规模闭源模型;3)黑森林实验室发布FLUX.1Kontext图像生成模型,支持文本和参考图像多次编辑;4)Midjourney V7渲染速度提升40%,新增用户投票功能;5)DeepSeek R1-0528大模型在AGI领域取得突破,性能超越xAI等公司;6)Hugging Face进军机器人市场,推出开源人形机器人HopeJR;7)字节跳动火山方舟接入DeepSeek最新大模型;8)Anthropic开源"电路追踪"工具,揭示大模型决策过程;9)阿里巴巴开源自主搜索AI智能体WebAgent;10)Hume发布低延迟语音语言模型EVI3;11)Manus Slides支持一键生成专业幻灯片;12)Runway Gen-4 References支持手机照片艺术化处理。

  • AI日报:昆仑万维天工超级智能体APP上线;谷歌重磅发布三大Gemma模型变体;字节推出开源多模态模型BAGE

    本文介绍了AI领域最新动态:1)昆仑万维推出全球首款AI+Agent架构的Office智能体应用;2)研究显示ChatGPT能提升K12学生成绩近87%;3)谷歌视频生成工具Veo3扩展至更多地区;4)谷歌发布三款Gemma模型变体,覆盖医疗、手语翻译和海豚语言研究;5)VideoTutor实现一句话生成定制教学视频;6)字节跳动开源多模态模型BAGEL;7)Rork支持无代码开发iOS/Android应用;8)AingDesk降低AI助手开发门槛;9)Claude4登陆亚马逊Bedrock平台;10)Youware通过MCP协议提升网页生成能力。这些创新展示了AI技术在各领域的快速发展和应用潜力。

  • 慧科讯业AI赋能数据标签化,破局多模态数据治理难题

    文章探讨了数字化浪潮下数据标签化的重要性及其商业应用。数据标签化作为大数据分析的基础,能帮助企业实现精准营销和智能决策。然而,多模态数据处理复杂、人工标注成本高、业务理解不足等问题制约了数据价值的释放。文章提出数据标签化在构建用户画像、舆情监控、市场趋势预测等场景中的核心价值,并分析了当前面临的挑战:包括传统NLP算法不精准、大语言模型成本高且不稳定等。慧科讯业通过TDaaS服务模式,结合行业领先的数据源、NLP技术和垂直知识图谱,为企业提供高效的数据标注解决方案,显著提升数据处理效率。未来,随着AI技术发展,知识图谱驱动的TDaaS模式将重新定义数据价值变现方式。

  • 破局多模态数据治理难点,数据标注重构企业营销新基建

    文章探讨了AI数据标注行业的发展现状与未来趋势。主要内容包括:1)AI数据标注已成为企业数字化转型的核心基础设施,92.9%数据为非结构化形态;2)营销领域多模态数据融合正在重塑商业决策模式;3)慧科讯业等企业通过TDaaS服务帮助客户构建数据资产;4)数据标注服务商分为国际头部、自有生态型、垂直领域型和综合营销数字化型四类;5)未来趋势包括AI驱动的自动化标注、数据合规升级和人机协同模式创新。文章强调,高质量数据标注服务将助力企业实现从"可用"到"可信高效"的数字化转型。

  • 多模态2025:技术路线“神仙打架”,视频生成冲上云霄

    一场大会,聚集了中国多模态大模型的“半壁江山”。 智源大会2025为期两天的论坛中,汇集了学界、创业公司和大厂等三方的热门选手,关于多模态的集中讨论达到了前所未有的热度。其中,创业公司就有爱诗科技、生数科技、Sand.ai、智象未来、Luma AI、智谱等六家公司创始人、CEO分享心得;隶属大厂队的字节、腾讯、百度的多模态技术负责人,以及学术界的人大和MIT(麻省�

  • AI触控云台浩瀚V3 Ultra发布,首发AI多模态追踪模块,定义手机云台轻旗舰标准!

    6月6日,浩翰V3 Ultra智能影像稳定器正式发布。作为旗舰级产品,它搭载行业首创AI多模态万物原生跟拍技术,支持10米远程触控彩屏、AI可视化构图、360°无死角跟拍及三轴稳拍等功能。新品采用第九代iSteady增稳系统,折叠后体积小巧便携。配备22英寸触控彩屏,支持5米手势控制和隔空补光功能。售价999元起,同步推出含无线麦克风的创作者套装。浩翰深耕稳定器行业11年,产�

  • AI日报:腾讯AI智能编程插件CodeBuddy;字节推Seed1.5-VL多模态模型;Manus母公司否认15亿美元融资传闻

    《AI日报》今日聚焦多项AI领域突破:腾讯推出CodeBuddy 3.0编程助手,深度整合微信小程序开发工具;字节跳动发布仅20B参数的Seed1.5-VL多模态模型,性能达行业领先;通义千问上线"Deep Research"智能研究系统,免费开放体验。此外,苹果推出革命性3D建模工具Matrix3D,Anthropic即将发布Claude Neptune新模型,清华与面壁智能联合推出端侧GUI智能体AgentCPM-GUI。谷歌搜索正测试"AI Mode"新功能,或将取代传统"手气不错"按钮。

  • 理想汽车OTA7.4正式推送!自研MindGPT-4o-preview模型首次上车

    理想汽车5月28日发布OTA 7.4版本升级,主要亮点包括:1)首次搭载自研MindGPT-4o大模型,智能助手"理想同学"升级为3D毛绒形象,新增双手交互动作,语音交互更自然生动;2)新增"小同桌"多角色对话功能,支持连续聊天和情商引导;3)升级为生活助手Agent,能自主操作车机完成复杂任务,支持支付宝小程序操作;4)新增家庭账号系统、面容识别和对话历史功能;5)影音体验优化,支持前后排独立音区;6)推出儿童节专属"小主人"模式,新增斑马百科应用;7)新增超充站降锁、冰箱定时开关等实用功能;8)优化L6车型CDC悬架系统,提升操控性。