首页 > 业界 > 关键词  > 正文

微软推出大型语言模型分割推理助手LISA

2023-08-10 10:37 · 稿源:站长之家

站长之家(ChinaZ.com)8月10日 消息:想象一下你想喝咖啡,然后你命令机器人去泡咖啡。您的指令涉及“煮一杯咖啡”,但不包括“去厨房,找到咖啡机,然后打开它”等分步指令。目前的现有系统包含依赖人类指令来识别任何目标对象的模型。他们缺乏推理能力和主动理解用户意图的能力。

为了解决这个问题,微软研究院、香港大学和 SmartMore 的研究人员提出了大型语言模型驱动的分割推理助手——LISA(Large Language Instructed Segmentation Assistant)。

image.png

项目地址:https://github.com/dvlab-research/lisa

LISA是一种新颖的分割任务,旨在通过复杂而隐含的查询文本生成分割掩码。LISA 继承了多模态大型语言模型(LLM)的语言生成能力,同时具备生成分割掩码的能力。研究人员发现,LISA 在处理复杂推理、世界知识、解释性回答和多对话方面表现出色。

通过对模型进行微调,仅使用239个推理分割图像指令对,性能得到了提升。研究人员还发现,LISA 在复杂推理任务上的性能优于传统的推理分割方法。他们的未来工作将侧重于推理能力的重要性,以建立一个评估基准并促进社区开发新技术。

核心功能:

- 根据复杂查询文本生成分割掩码

- 进行复杂推理和世界知识的分割

- 提供解释性回答

- 支持多轮对话交互

举报

  • 相关推荐
  • 用PIT框架提升大型语言模型的质量

    传统方法中,提高LLMs性能需要通过人工注释来收集更多多样化和高质量的训练数据,但这是一项资源密集型的任务,尤其是对于专业领域言。为了解决这个问题,来自伊利诺伊大学厄巴纳-香槟分校和Google的研究人员提出了“ImplicitSelf-Improvementframework”。通过从人类偏好数据中学习改进目标,PIT解决了传统提示方法的限制,并展示了在各种数据集和条件下提高LLMs响应质量的有效性。

  • Lakera推出API,保护大型语言模型免受恶意提示攻击

    瑞士初创公司Lakera最近发布了一款旨在保护企业免受大型语言模型的恶意提示攻击的API。这项举措旨在解决LLMs在生成人类语言文本方面的卓越性能,但也可能受到恶意攻击的问题,尤其是通过所谓的“promptinjection”技术。通过将攻击转化为统计结构,Lakera有望在这一领域发挥重要作用,并确保企业可以安全地利用LLM的强大功能。

  • LayoutNUWA:一个基于大型语言模型的布局生成工具

    在网上创建引人注目的设计对于吸引用户的兴趣和帮助他们理解信息非常重要。这种新方法,被称为LayoutNUWA,通过使用语言模型将编码指令转化为出色的布局,使这些设计更加智能。通过这些核心功能,LayoutNUWA为用户提供了一个强大的布局生成工具,可以应用于各种项目和领域,从提高布局生成的效率和质量。

  • Evisort成功开发法律合同领域的大型语言模型(LLM)

    Evisort成功开发了专门用于法律协议的大型语言模型,并将其作为其新的多方位生成AI引擎的关键组成部分。该LLM将使Evisort能够提供比通用的第三方LLMs更准确和响应更灵活的AI创新,从帮助组织更好地管理合同。这一创新也受到了业界的认可,得到了微软风投M12的高度评价。

  • DistilBERT:更小、更快、更便宜的大型语言模型压缩方法

    大型语言模型的发展迅猛,BERT成为其中最受欢迎和高效的模型,但其复杂性和可扩展性成为问题。为了解决这些问题,市面上目前由三种常见的模型压缩技术:知识蒸馏、量化和剪枝。DistilBERT通过知识蒸馏技术在保持性能的同时显著压缩了大型语言模型,为在资源受限设备上的部署提供了可能性。

  • 英伟达与 Anyscale 合作:提高大型语言模型和生成式 AI 应用的开发效率

    用于生成式AI工具的大型语言模型通常会极大地增加对更多处理器的需求,这些处理器通常价格昂贵且供应受限。即使是云资源也不能总是解决企业试图扩展规模并利用最新的生成式AI技术所面临的问题。」Anyscale首席执行官兼联合创始人RobertNishihara在一份声明中表示。

  • 开源机器学习库vLLM 提升大语言模型推理速度

    大语言模型在改变人们的生活和职业方面影响越来越大,因为它们实现了编程助手和通用聊天机器人等新应用。这些应用的运行需要大量硬件加速器如GPU,操作成本非常高。更大的模型、更复杂的解码算法和更长的序列会导致更明显的改进。

  • NVIDIA发布SteerLM:个性化定制大型语言模型响应的新AI方法

    在人工智能领域,开发人员和用户一直面临一个挑战,那就是需要更加定制和细致的大型语言模型响应。虽然这些模型,比如Llama2,可以生成类似人类的文本,但它们通常需要提供真正针对个体用户独特需求的答案。开发人员现在有机会访问代码,并使用HuggingFace等平台上提供的自定义的13BLlama2模型来尝试这一技术。

  • 微软研究人员用儿童故事进行训练:微型语言模型进入成熟期

    学习英语并不容易,许多学生都深有体会。但当学生是一台计算机时,有一种方法表现出奇地出色:只需将大量来自互联网的文本输入到一个名为神经网络的巨大数学模型中。他们的研究结果暗示了可能有助于训练更大型模型并理解其行为的新研究方向。

  • OpenLM:一个专为中等规模语言模型设计的模型训练库

    OpenLM是一个旨在训练中等规模语言模型的PyTorch代码库,它强调了最大化GPU利用率和训练速度的设计。该库已经通过训练OpenLM-1B和OpenLM-7B两个语言模型,分别在1.6T和1.25T的文本标记上进行验证,取得了令人瞩目的成果。OpenLM的团队成员和致谢也在文章中列出,表明了该项目的合作性质和开源精神。

今日大家都在搜的词: