首页 > 业界 > 关键词  > 开源语言模型最新资讯  > 正文

研究表明,开源语言模型无法与 GPT-4 相提并论

2023-05-29 09:55 · 稿源:站长之家

站长之家(ChinaZ.com)5月29日 消息:开源语言模型的进步是无可争议的。但它们真的能与来自 OpenAI、谷歌和其他公司的训练有素的语言模型竞争吗?

诸如之前所报道的,使用Alpaca Formula训练的开源语言模型几乎不需要怎么训练以及很低的成本就能达到了类似于ChatGPT的水平。

机器人 数据中心 AI (1)

Alpaca Formula指的是开发人员使用 ChatGPT 生成的训练数据来微调Meta语言模型 LLaMA 。使用这些数据,LLaMA 模型可以在很短的时间内学习生成类似于 ChatGPT 的输出,并且只需要很少的计算量。

但伯克利大学的研究人员在最近的一项研究中得出了不同的结论:他们将Alpaca Formula应用于LLaMA和 GPT-2的一些基础模型,然后让这些结果由人工评估并由GPT-4自动评估。

最初,他们得出了与之前的开发人员相同的结论:使用指令改进的模型(研究人员称之为“模仿模型”)的性能远远超过基础模型,与 ChatGPT 相当。

然而,“更有针对性的自动评估”表明,模仿模型实际上只在他们看到模仿数据的任务中表现良好。在所有其他领域,GPT-4仍然存在明显的性能差距。因为这些基础模型在广泛的预训练过程中获得了大部分功能,而不是在微调过程中获取的。

研究人员表示,这些所谓的评价的工作者经常在没有专业知识的情况下在短时间内评估人工智能内容,很容易被忽悠。

OpenAI 研究员约翰舒尔曼最近也批评使用 ChatGPT数据微调开源基础语言模型,称如果微调数据集包含原始模型中不存在的知识,它们可能会产生更多不正确的内容。

举报

  • 相关推荐
  • 谷歌、CMU研究表明语言模型通过使用良好的视觉tokenizer首次击败了扩散模型

    来自谷歌、CMU的研究发现,语言模型在图像、视频生成领域的性能一直不如扩散模型,主要原因是缺乏有效的视觉表示。通过引入一种名为MAGVIT-v2的视频tokenizer,采用无查找量化和增强功能的设计,研究者成功改进了图像和视频生成的质量,超越了现有技术。通过这一研究,我们可以看到语言模型在视觉生成领域的潜力,以及如何通过创新的设计和改进来实现更好的性能。

  • Gradient融资1000万美元,开发者可定制开源语言模型

    初创公司Gradient已经成功融资1000万美元,用于扩大其云平台的采用,该平台允许开发人员托管定制版本的开源语言模型。这项投资由WingVC领投,MangoCapital、TokyoBlack、TheNewNormalFund、SecureOctane和GlobalFoundersCapital也参与了这一轮融资。为了支持其客户基础的持续增长,该公司将利用新关闭的种子轮融资扩大其云平台计划在年底前雇佣8名新员工。

  • 研究人员发现使用少见语言即可绕过GPT-4的限制

    布朗大学的计算机科学研究人员发现了OpenAI的GPT-4存在的安全性问题。通过使用不常见的语言,如祖鲁语和盖尔语,他们成功绕过了GPT-4的限制性设置。尽管他们意识到这一研究可能会给网络犯罪分子提供想法,但他们仍然认为将这一漏洞公之于众是必要的,因为利用现有的翻译API轻松实施这些攻击,因此那些试图绕过安全防护的恶意行为者最终会发现这一漏洞。

  • 对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4

    对标GPT-4代码解释器,港中大最新研究放了个“大招”:他们开发了一个叫做MathCoder的大模型,数学能力直接在竞赛级“题库”Math上超过GPT-4。做到这一点靠的就是无缝集成代码的能力——在遇到数学问题时,它不仅能用自然语言推理能自动编写和执行代码来建模、推导公式与方程。通讯作者为李鸿升,为港中大电子工程系副教授,同时也就职于上海人工智能研究室。

  • 哈佛研究: GPT-4 可将工作质量提升超过40%!

    根据来自哈佛商学院的一项新研究,GPT-4语言模型可以显著提高员工的工作质量,提高超过40%。研究也发现,不熟练地使用人工智能可能会导致工作绩效下降高达19个百分点。专业技能需要通过正规教育、在职培训和员工提升来培养。

  • 谷歌让大模型更具“心智”,GPT-4任务准确率大增

    谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人类所面临的问题学会了用推测的结论调整自己的行为。来自谷歌、卡耐基梅隆大学和的芝加哥大学的学者也参与了本项目。

  • 「字少信息量大」,Salesforce、MIT 研究者手把手教 GPT-4「改稿」,数据集已开源

    自动摘要技术取得了长足的进步,这主要归功于范式的转变——从在标注数据集上进行有监督微调转变为使用大语言模型进行零样本prompt,例如GPT-4。不需要额外的训练,细致的prompt就能实现对摘要长度、主题、风格等方面特征的精细控制。更多论文细节,可参考原论文。

  • PIT框架提升大型语言模型的质量

    传统方法中,提高LLMs性能需要通过人工注释来收集更多多样化和高质量的训练数据,但这是一项资源密集型的任务,尤其是对于专业领域言。为了解决这个问题,来自伊利诺伊大学厄巴纳-香槟分校和Google的研究人员提出了“ImplicitSelf-Improvementframework”。通过从人类偏好数据中学习改进目标,PIT解决了传统提示方法的限制,并展示了在各种数据集和条件下提高LLMs响应质量的有效性。

  • 智谱AI发布MathGLM数学模型 算术任务性能优于GPT-4

    智谱AI发布MathGLM数学模型,旨在增强大模型在数学推理方面的性能。它能够精确计算算术运算,包括基础算术运算和复杂混合运算,并提升模型的中文数学解决能力。MathGLM还在解决不同年级数学问题和数学应用题上进行了实验,取得了较好的结果。

  • 开源机器学习库vLLM 提升大语言模型推理速度

    大语言模型在改变人们的生活和职业方面影响越来越大,因为它们实现了编程助手和通用聊天机器人等新应用。这些应用的运行需要大量硬件加速器如GPU,操作成本非常高。更大的模型、更复杂的解码算法和更长的序列会导致更明显的改进。