首页 > 业界 > 关键词  > 语言模型最新资讯  > 正文

Headless语言模型:通过捆绑嵌入提高模型的训练速度

2023-09-20 10:50 · 稿源:站长之家

要点:

1. 提出了一种新的预训练方法,称为Headless语言模型,它移除了对词汇空间概率分布的预测需求,而是关注用对比方式重构表示。

2. 该方法只需要改变目标函数,可以直接应用于经典语言模型预训练目标。

3. 在单语和多语编码器以及单语解码器中实验表明,Headless语言模型预训练相比经典方法在给定运算量下表现更好,计算效率更高。

站长之家(ChinaZ.com)9月20日 消息:研究人员发现了一种改进语言模型性能的方法——Headless语言模型,即将输入嵌入与模型的其他嵌入捆绑在一起,并使用对比损失。通常情况下,语言模型的输入和输出嵌入层是分开的,但这种新方法通过捆绑它们,提高了模型的训练速度和准确性。这一创新有望在大规模语言处理任务中取得广泛应用。

Headless语言模型通过移除语言模型预测词汇空间概率分布的需求,改为学习重构输入嵌入的对比方式,提供了一种创新预训练方法。作者提出了一种对比权重绑定损失,可以直接作为经典语言模型的目标函数替代,因此可以轻松集成到已有代码库中。

image.png

论文地址:https://arxiv.org/pdf/2309.08351.pdf

在英文和多语言单向编码器以及英文解码器模型的中等规模预训练实验中发现,在类似运算量下,Headless语言模型相比经典方法有显著提升,下游表现更好,数据效率更高,计算效率也更高。

例如,Headless语言模型在GLUE基准测试上的结果比对应的经典模型高1.6分,在LAMBADA数据集上的准确率提高了2.7分。

此外,训练Headless语言模型可以节省高达20倍的运算量。总的来说,这项工作为以对比学习取代交叉熵作为自监督预训练目标开辟了道路,为语言表示学习提供了一种高效可行的替代方案。

举报

  • 相关推荐
  • OpenLM:一个专为中等规模语言模型设计的模型训练

    OpenLM是一个旨在训练中等规模语言模型的PyTorch代码库,它强调了最大化GPU利用率和训练速度的设计。该库已经通过训练OpenLM-1B和OpenLM-7B两个语言模型,分别在1.6T和1.25T的文本标记上进行验证,取得了令人瞩目的成果。OpenLM的团队成员和致谢也在文章中列出,表明了该项目的合作性质和开源精神。

  • 开源机器学习库vLLM 提升大语言模型推理速度

    大语言模型在改变人们的生活和职业方面影响越来越大,因为它们实现了编程助手和通用聊天机器人等新应用。这些应用的运行需要大量硬件加速器如GPU,操作成本非常高。更大的模型、更复杂的解码算法和更长的序列会导致更明显的改进。

  • 微软研究人员用儿童故事进行训练:微型语言模型进入成熟期

    学习英语并不容易,许多学生都深有体会。但当学生是一台计算机时,有一种方法表现出奇地出色:只需将大量来自互联网的文本输入到一个名为神经网络的巨大数学模型中。他们的研究结果暗示了可能有助于训练更大型模型并理解其行为的新研究方向。

  • 用PIT框架提升大型语言模型的质量

    传统方法中,提高LLMs性能需要通过人工注释来收集更多多样化和高质量的训练数据,但这是一项资源密集型的任务,尤其是对于专业领域言。为了解决这个问题,来自伊利诺伊大学厄巴纳-香槟分校和Google的研究人员提出了“ImplicitSelf-Improvementframework”。通过从人类偏好数据中学习改进目标,PIT解决了传统提示方法的限制,并展示了在各种数据集和条件下提高LLMs响应质量的有效性。

  • 谷歌、CMU研究表明:语言模型通过使用良好的视觉tokenizer首次击败了扩散模型

    来自谷歌、CMU的研究发现,语言模型在图像、视频生成领域的性能一直不如扩散模型,主要原因是缺乏有效的视觉表示。通过引入一种名为MAGVIT-v2的视频tokenizer,采用无查找量化和增强功能的设计,研究者成功改进了图像和视频生成的质量,超越了现有技术。通过这一研究,我们可以看到语言模型在视觉生成领域的潜力,以及如何通过创新的设计和改进来实现更好的性能。

  • 英伟达与 Anyscale 合作:提高大型语言模型和生成式 AI 应用的开发效率

    用于生成式AI工具的大型语言模型通常会极大地增加对更多处理器的需求,这些处理器通常价格昂贵且供应受限。即使是云资源也不能总是解决企业试图扩展规模并利用最新的生成式AI技术所面临的问题。」Anyscale首席执行官兼联合创始人RobertNishihara在一份声明中表示。

  • Hugging Face 大语言模型三大优化技术

    大语言模型的生产部署面临着两个主要挑战:一是需要庞大的参数量,二是需要处理超长的上下文信息输入序列。HuggingFace基于他们在提供大型模型服务方面的经验,分享了一些应对这些难题的技术。文章深入剖析了大语言模型优化的关键技术点,对于产业实践具有重要参考价值。

  • 使用AI语言模型有助于诊断精神分裂症

    伦敦大学学院神经学院的科学家开发了一些新的工具,这些工具基于AI语言模型,可以特征化被诊断患有精神分裂症的患者语音中的细微特征。这项发表在《美国国家科学院院刊》上的研究,旨在了解自动语言分析如何帮助医生和科学家诊断和评估精神疾病。如果这些工具被证明是安全和可靠的,他预计它们会在未来十年开始应用于临床。

  • 秒懂生成式AI—大语言模型是如何生成内容的?

    备受关注的大语言模型,核心是自然语言的理解与文本内容的生成,对于此,你是否好奇过它们究竟是如何理解自然语言并生成内容的,其工作原理又是什么呢?要想了解这个,我们就不得不先跳出大语言模型的领域,来到机器翻译这里。传统的机器翻译方式是采用RNN循环神经网络。以上就是大语言模型的工作原理了,强大Transformer的实用性还不止于在自然语言处理领域,包括�

  • LongLoRA:超长上下文,大语言模型效微调方法

    麻省理工学院和香港中文大学联合发布了LongLoRA,这是一种全新的微调方法,可以增强大语言模型的上下文能力无需消耗大量算力资源。想增加大语言模型的上下文处理能力,需要更多的算力支持。LongLoRA在大型语言模型领域提出了创新方法,在处理大量信息时,也可以更轻松、更高效地微调这些模型必须消耗更多的算力资源。