首页 > 业界 > 关键词  > LLaVA最新资讯  > 正文

浙大校友联手微软开源LLaVA-1.5,硬刚GPT-4V

2023-10-08 13:44 · 稿源:站长之家

要点:

LLaVA-1.5在11项基准测试实现了SOTA,使用8块A100GPU,LLaVA-1.5的训练仅需1天时间即可完成。

LLaVA-1.5在多模态理解上超越GPT-4V,可对其形成有力竞争。

LLaVA-1.5采用最简单的架构和公开数据集,性能显著提升。

站长之家(ChinaZ.com)10月8日 消息:LLaVA-1.5是来自威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学的研究人员近期开源的一款全新的端到端多模态大模型,可与OpenAI的GPT-4V形成正面竞争。LLaVA-1.5在11项基准测试中都实现了新的状态最优(SOTA)成绩,包括视觉问答、图像 caption等任务,展现出了强大的多模态理解能力。

image.png

论文地址:https://browse.arxiv.org/pdf/2310.03744.pdf

相比之前的版本LLaVA,LLaVA-1.5采用了更高分辨率的图像输入、更大规模的语言模型(13B参数),以及面向学术任务的视觉问答数据集,从而获得了显著的性能提升。研究人员发现,与额外的大规模预训练相比,视觉指令微调对提高多模态能力更为关键。

值得一提的是,LLaVA-1.5采用了最简单的架构设计,只需要在公开可取得的6百万图像文本配对上训练一个全连接层,就能在多项基准测试中打败复杂的SOTA系统,刷新记录。使用8块A100GPU,LLaVA-1.5的训练仅需1天时间即可完成。LLaVA-1.5展示了开源大模型可以通过简单的设计和公共数据取得竞争力,为未来的研究提供了有价值的经验。LLaVA-1.5以其出色的多模态理解能力,向业内掀起了一股“硬刚GPT-4”的新风潮。

举报

  • 相关推荐
  • 重构想象!KAVA首款全地形车新品亮相,引领行业变革

    9月26日,高端全地形车品牌KAVA发布旗舰ATV车型KAVA Strider。该车搭载1000cc发动机,性能领先行业,整车轻量化设计,重量控制在450公斤内,兼具强劲动力与灵活操控。智能系统覆盖驾控、网联和中控三大板块,支持多模式切换、蓝牙/Wi-Fi连接及专属APP,实现地图投屏、无钥匙解锁、电子围栏等功能,提升安全与便捷性。外观灵感源自剑齿虎,线条锐利,造型硬核,重新定义全地形车美学。KAVA Strider不仅是一款产品,更象征行业未来进化方向。

  • 强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码

    2025年9月29日,深度求索公司发布新一代模型架构DeepSeek-V3.2,引发行业关注。寒武纪同步宣布适配该模型并开源vLLM-MLU推理引擎代码。新发布的DeepSeek-V3.2-Exp是实验性版本,在V3.1-Terminus基础上引入稀疏注意力机制,优化长文本训练和推理效率。目前官方应用端已同步更新,API大幅降价。此次模型体积达671GB,下载需8-10小时。业内专家指出,此次快速适配表明双方早有深度技术协�

  • 新型稀疏LVLM架构MoE-LLaVA 解决模型稀疏性相关的性能下降问题

    MoE-LLaVA是一种新型稀疏LVLM架构,通过使用路由算法仅激活top-k专家,解决了通常与多模态学习和模型稀疏性相关的性能下降问题。研究者联合提出了一种新颖的LVLM训练策略,名为MoE-Tuning,以解决大型视觉语言模型的扩大参数规模会增加训练和推理成本的问题。MoE-LLaVA能够帮助我们更好地理解稀疏模型在多模态学习上的行为,为未来研究和开发提供了有价值的见解。

  • LLaVA++:为Phi-3和Llama-3模型增加视觉处理能力

    LLaVA项目通过扩展现有的LLaVA模型,成功地为Phi-3和Llama-3模型赋予了视觉能力。这一改进标志着AI在多模态交互领域的进一步发展。LLaVA的推出,预示着未来AI模型将更加智能和灵活,能够更好地服务于需要视觉与文本结合理解的复杂场景。

  • 微软开源多模态模型LLaVA-1.5媲美GPT-4V效果

    微软开源了多模态模型LLaVA-1.5,继承LLaVA架构并引入新特性。研究人员对其在视觉问答、自然语言处理、图像生成等进行了测试显示,LLaVA-1.5达到了开源模型中的最高水平,可媲美GPT-4V效果。LLaVA-1.5在多模态领域取得显著进展,通过开源促进了其在视觉问答、自然语言处理、图像生成等方面的广泛应用。

  • 开启移动智能新时代 回顾Galaxy AI的创新之旅

    三星通过Galaxy AI开启智能手机AI驱动新时代。2024年Galaxy S24系列问世,标志AI手机进入创新新阶段。AI深度赋能沟通、创意与互联,重塑生活方式。三星持续推动多模态AI发展,将其融入可穿戴设备、平板、PC等产品,扩展移动AI生态系统。自去年Galaxy AI落地应用后,重新定义更自由、智能的生活方式,推动新时代持续演进。

  • LLaVA-1.6来了!赶超Gemini Pro 提升推理性能

    LLaVA-1.6是一项新的技术成果,通过提升推理、OCR能力以及支持更多场景和广泛用户,为用户带来更好的体验。LLaVA-1.6不仅在多项基准测试中超越了GeminiPro,并且优于Qwen-VL-Plus,展现出了强大的性能。这将对多模态技术的发展产生积极的推动作用,为用户带来更广泛的应用场景和更好的体验。

  • AI日报:蚂蚁开源高性能思考模型Ring-flash-2.0;通义7款模型屠榜Hugging Face;Veo3视觉能力升级

    蚂蚁百灵团队开源高性能思考模型Ring-flash-2.0,在多项基准测试中表现优异;阿里通义7款模型登顶Hugging Face榜单,Qwen3-Omni凭借多模态能力全球第一。谷歌Veo3突破视频生成局限,可自动完成视觉任务;特斯拉推进人形机器人量产,马斯克称其为最重要产品。马斯克第六次起诉OpenAI窃取商业机密,苹果内部测试聊天机器人Veritas优化Siri,YouTube推出AI音乐主播增强互动,LiquidAI发布轻量级模型Liquid Nanos优化边缘计算。

  • 清华、浙大推GPT-4V开源平替!LLaVA、CogAgent等开源视觉模型大爆发

    GPT-4V的开源替代方案在中国的顶尖学府清华、浙大等的推动下,出现了一系列性能优异的开源视觉模型。LLaVA、CogAgent和BakLLaVA是三种备受关注的开源视觉语言模型。虽然BakLLaVA在训练过程中使用了LLaVA的语料库,不允许商用,但BakLLaVA2则采用了更大的数据集和更新的架构,超越了当前的LLaVA方法,具备商用能力。

  • 提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点

    最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这些结果证明了联合图片和视频一起训练能够促进LLM理解视觉表示。

今日大家都在搜的词: