首页 > AI头条  > 正文

AI “看图说话” 更懂细节!腾讯开源多模态理解技术HaploVL

2025-03-27 17:36 · 来源: AIbase基地

3月27日,腾讯开源团队宣布推出了一项创新的多模态理解技术——HaploVL。这一技术旨在通过单个Transformer架构实现高效的多模态融合,显著提升AI在视觉和语言交互中的表现,特别是在细粒度视觉理解任务上。

在人工智能领域,多模态大模型(LMMs)近年来迅速崛起,它们能够实现复杂的视觉-语言对话和交互。然而,现有的多模态模型大多采用“视觉编码器 + 大语言模型”的组合架构,这种架构虽然有效,但在处理细粒度任务时存在不足。例如,预训练的视觉编码器(如CLIP)可能会忽略图像中的关键细节,如物体颜色或小目标位置,导致模型在某些任务上的表现不佳。此外,现有的统一架构模型(如Fuyu)虽然简化了流程,但需要大量的数据和计算资源来训练,且性能仍落后于组合式模型。

HaploVL的出现正是为了解决这些问题。它采用单Transformer架构,通过动态融合文本和视觉信息,让文本嵌入能够“捕捉”所需的视觉线索,同时显著减少了训练数据的需求。在性能上,HaploVL不仅能够与现有的组合式模型相媲美,还在细粒度视觉理解任务上表现出色。

微信截图_20250327173627.png

HaploVL的架构设计充满巧思。它通过多模态嵌入层直接对图像和文本进行编码,并在模型前端设置了一个预解码器(视觉知识引擎),用于动态融合图文信息。这一设计类似于“雷达”,能够扫描图像中的细节,并捕捉图像内部的关联和多图之间的时序关系。后解码器(语言生成引擎)则基于融合后的特征生成自然语言回复,继承了大语言模型的语言能力,能够快速学习多模态关联并生成逻辑连贯的回答。

HaploVL的训练方法也颇具创新性。它采用了两阶段训练方法,首先在预训练阶段对模型进行初始化,然后在微调阶段对特定任务进行优化。这种训练方式不仅提高了模型的泛化能力,还减少了对大规模数据集的依赖。

在实验中,HaploVL在多项多模态基准测试中展现出优异的性能,尤其是在细粒度视觉理解任务上。例如,在边缘物体感知和推理任务中,HaploVL能够准确识别图像中的高亮区域,并生成与之相关的自然语言描述。这一能力在实际应用中具有重要意义,例如在自动驾驶、智能安防等领域,细粒度视觉理解能够帮助系统更准确地感知环境并做出决策。

Code: https://github.com/Tencent/HaploVLM

Arxiv: https://arxiv.org/abs/2503.14694

  • 相关推荐
  • 开源即支持!基于昇腾MindSpeed MM玩转InternVL3多模态理解最新模型

    多模态理解领域当前已成了各家AI大模型公司“军备竞赛”的关键点之一,国内外知名AI大模型公司都争相通过发布最先进的多模态大语言模型展现其在多模态理解领域的前沿能力。近期,上海AI实验室推出了其最新的多模态大语言模型InternVL3 系列,相比上一代InternVL2. 5 模型,该模型展现出卓越的多模态感知和推理能力,同时进一步扩展了其工具使用、GUI代理、工业图像分析等

  • OpenAI发布o3、o4 mini模型,实现“看图说话”,糊也行!

    从 GPT-5 开始,推理模型和非推理模型很有可能会整合在一起……

  • UniToken:多模态AI的“全能选手”,一次编码搞定图文理解像生成

    复旦大学与美团研究者提出UniToken框架,首次在统一模型中实现图文理解与生成任务的"双优表现"。该方案融合连续和离散视觉编码,有效解决了传统多模态建模中的"任务干扰"和"表示割裂"问题。通过三阶段训练策略(视觉语义对齐、多任务联合训练、指令强化微调),UniToken在多个基准测试中性能超越专用模型。其创新性体现在:1)统一的双边视觉编码

  • 多模态和Agent成为大厂AI的新赛 点

    这是《窄播Weekly》的第52期,本期我们关注的商业动态是:当大厂的AI竞争策略开始倾斜向应用场景,多模态能力和代理执行成为两个焦点。大模型落地C端场景的核心,就是让大模型的能力越来越接近人。沿着这个主旋律,可以划分出两个进化方向:一个是持续降低用户与大模型进行有效沟通的难度;另一个则是让大模型具备执行更复杂任务的能力。前者的实现,需要给到大模型多

  • 多模态和Agent成为大厂AI的新赛点

    本期《窄播Weekly》聚焦AI大厂竞争策略向应用场景倾斜的趋势,重点分析了多模态能力和代理执行两大发展方向。文章指出,大模型落地的核心在于让人机交互更自然,具体表现为:1)通过多模态技术降低用户使用门槛,如阿里夸克新推出的"拍照问夸克"功能;2)通过代理执行提升复杂任务处理能力,如字节、百度等推出的通用Agent产品。国内外厂商路径差异明显:国�

  • 可灵AI发布全新2.0模型:上线多模态视频编辑功能

    快科技4月16日消息,据报道,可灵AI在北京举行灵感成真”2.0模型发布会,正式发布可灵2.0视频生成模型及可图2.0图像生成模型。据介绍,可灵2.0模型在动态质量、语义响应、画面美学等维度保持领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。3月27日,全球AI基准测试机构Artificial Analysis发布了最新的全球视频生成大模型榜单,快手可灵1.6pro(高品质模

  • 业界唯一!百度网盘上线多模态AI笔记 效率提升10倍

    快科技5月2日消息,过往,用户在通过视频学习并记录笔记时,总免不了要不停切换平台软件,暂停、截屏、记录、插图、批注、切换返回视频过程繁琐而低效。为了应对这种情况,百度网盘和百度文库联合研发上线了AI笔记”,支持全自动学习、半自动学习、辅助学习三种模式。如今只要在网盘里面任意打开一个学习视频,在右侧就能看到AI笔记”功能,用户可以自主输入内容,也可以让其直接生成图文并茂、结构清晰的笔记。而且每个重要知识点旁会有时间戳,点击时间戳即可跳转到视频中对应位置,实现视频和笔记内容的顺滑关联。此外AI笔记”还可以帮

  • 紫东太初多模态RAG全新发布:端到端问答准确率提升33%

    在产业智能化进程中,如何高效融合企业专有知识资产,构建领域专属认知引擎,是企业迈向智能决策与高效运营的关键。然而,传统检索增强生成(RAG)技术受限于语言单模态处理能力,仅能实现文本知识库与文本查询之间的浅层理解,难以满足复杂业务场景的需求,在实际应用中暴露出两大缺陷:信息表征缺失:忽略知识库中多模态富文档的视觉语义信息,如版面结构、图表关�

  • AI日报:国内首个多模态AI程序员上岗;字节启动Top Seed计划招募AI人才;DeepSeek R1T Chimera上线OpenRouter

    【AI日报】今日AI领域重要动态:1.百度发布文心快码3.5及多模态AI程序员"文心快码Comate Zulu",提升开发效率;2.字节跳动启动"Top Seed"计划,招募30名AI博士人才;3.DeepSeek开源R1T Chimera模型上线OpenRouter平台;4.阿里AI工程师余亮获"全国劳动模范"称号;5.开源图像编辑工具Step1X-Edit登陆Hugging Face,性能媲美GPT-4o;6.谷歌被曝每月向三星支付巨额资金预装Gemini应用

  • 律三多——一个懂法律、更懂你的法律服务APP

    文章探讨了数字时代法律服务的快速发展,介绍了“律三多”等法律服务平台如何通过技术创新提升效率和服务质量。平台结合大数据、人工智能等技术,构建覆盖全国的法律服务体系,提供个性化解决方案,并强调普惠性与专业性的结合,使用户能以较低成本享受高质量服务。此外,文章还提到法律科技对公众认知的影响及行业未来发展方向。

今日大家都在搜的词: