首页 > 业界 > 关键词  > GPT-4最新资讯  > 正文

哈佛研究发现GPT-4使得企业员工绩效提升了40%

2023-09-26 09:30 · 稿源:站长之家

文章概要:

1. 哈佛研究指出,GPT-4帮助波士顿咨询集团(Boston Consulting Group)的顾问在任务完成率、速度和质量上获得40%的提升。

2. 这项由哈佛、沃顿和麻省理工等研究人员进行的研究是首次大规模探讨企业中生成式AI的实际应用,揭示了AI在提高绩效方面的重要潜力。

3. 研究还发现,有些顾问采用了“Cyborg”和“Centaur”行为,将人工智能和人类工作相结合,可能指明了未来AI应用的方向。

站长之家(ChinaZ.com) 9月26日 消息:哈佛大学领导的一项研究发现,使用生成式人工智能(AI)的波士顿咨询集团(BCG)的数百名顾问在完成任务的频率、速度和质量方面表现出色,相较于不使用AI的同行,他们的绩效提高了40%。

这项研究由哈佛、沃顿和麻省理工等数据科学家和研究人员进行,是首次对企业中生成式AI的实际应用进行了重大研究。研究起源于ChatGPT于2022年11月公开发布后,引发了各大企业积极探索最佳利用方式的热潮。研究团队在今年1月快速展开研究,并使用了GPT-4进行实验,该模型被普遍认为是最强大的大型语言模型(LLM)。这项研究为企业如何部署AI提供了一些重要的启示。

机器人画画

哈佛本次研究的首席作者Fabrizio Dell’Acqua表示:“我们能够提升这些高薪、高技能的顾问的绩效,他们来自顶尖的MBA学院,从事与日常任务非常相关的工作,平均提高了40%,我认为这真的令人印象深刻。”

尽管报告在九天前公开评审,但除了学术界和其社交圈之外并未引起重大关注。除了其标题外,研究还提供了一些关于何时不使用AI的警示性发现。研究得出结论,存在所谓的“崎岖技术边界”,即AI可以轻松完成的任务与当前AI能力之外的任务之间存在难以辨别的障碍。

该研究还指出了一些技术能力较强的顾问采用的AI使用模式,研究人员将其称为“Cyborg”和“Centaur”行为,他们认为这可能指出了如何处理对AI能力存在不确定性的任务的方向。

这项研究的重要发现之一是AI具有平衡技能的能力。在研究之前表现最差的顾问,在使用AI后绩效提高了43%,而对顶级顾问的提升较小。

研究的主要结论之一是,AI的内部工作方式仍然不透明,很难确定在某些任务中何时可靠使用AI,这是未来组织面临的主要挑战之一。

但是,报告指出,一些顾问似乎比其他人更好地穿越了这一技术边界,他们被称为“Centaurs”或“Cyborgs”,以一种结合了人工智能和人类工作优势的方式来回切换。 Centaurs在人和机器之间有明确的界限,根据每个任务的感知优势和能力,在人工智能和人工任务之间切换。 Cyborgs则在执行大多数任务时将机器和人类相融合。

研究还发现,一些任务对AI的表现一直较好,这与目前的一些实践相矛盾。公司不应该错误地认为AI最适合作为第一稿生成,并强制人工干预。相反,公司应该让AI做它真正擅长的事情,而人工则应该尝试深入挖掘其他任务。

举报

  • 相关推荐
  • 哈佛研究: GPT-4 可将工作质量提升超过40%!

    根据来自哈佛商学院的一项新研究,GPT-4语言模型可以显著提高员工的工作质量,提高超过40%。研究也发现,不熟练地使用人工智能可能会导致工作绩效下降高达19个百分点。专业技能需要通过正规教育、在职培训和员工提升来培养。

  • 研究发现:BCG咨询师使用GPT-4解决务问题表现不佳

    一项新研究发现,波士顿咨询集团的咨询师在使用OpenAI的GPT-4解决业务问题时表现不佳,他们的表现比那些没有使用GPT-4的同行差了整整23%。这一发现引发了对于人工智能在业务领域中的实际效用和风险的讨论。这种情况引发了对于知识产权和法律责任的复杂问题。

  • 研究人员发现使用少见语言即可绕过GPT-4的限制

    布朗大学的计算机科学研究人员发现了OpenAI的GPT-4存在的安全性问题。通过使用不常见的语言,如祖鲁语和盖尔语,他们成功绕过了GPT-4的限制性设置。尽管他们意识到这一研究可能会给网络犯罪分子提供想法,但他们仍然认为将这一漏洞公之于众是必要的,因为利用现有的翻译API轻松实施这些攻击,因此那些试图绕过安全防护的恶意行为者最终会发现这一漏洞。

  • 对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4

    对标GPT-4代码解释器,港中大最新研究放了个“大招”:他们开发了一个叫做MathCoder的大模型,数学能力直接在竞赛级“题库”Math上超过GPT-4。做到这一点靠的就是无缝集成代码的能力——在遇到数学问题时,它不仅能用自然语言推理能自动编写和执行代码来建模、推导公式与方程。通讯作者为李鸿升,为港中大电子工程系副教授,同时也就职于上海人工智能研究室。

  • 谷歌让大模型更具“心智”,GPT-4任务准确率大增

    谷歌联合多所高校的一项最新研究,让大模型开始拥有了人类的“心智”。在新的提示策略下,大模型不仅能推测出人类所面临的问题学会了用推测的结论调整自己的行为。来自谷歌、卡耐基梅隆大学和的芝加哥大学的学者也参与了本项目。

  • 「字少信息量大」,Salesforce、MIT 研究者手把手教 GPT-4「改稿」,数据集已开源

    自动摘要技术取得了长足的进步,这主要归功于范式的转变——从在标注数据集上进行有监督微调转变为使用大语言模型进行零样本prompt,例如GPT-4。不需要额外的训练,细致的prompt就能实现对摘要长度、主题、风格等方面特征的精细控制。更多论文细节,可参考原论文。

  • Bing Chat创意和精确模式全面采用GPT-4

    微软搜索主管MikhailParakhin在Twitter上正式宣布,BingChat在创意和精确模式下100%采用GPT-4。这一消息为微软在人工智能领域的发展迈出了重要的一步。市场竞争激烈,微软需要继续努力以实现其市场份额的增长目标。

  • OpenAI 宣布自 GPT-4 发布以来的最大更新:ChatGPT 现在可以「看、听、说」

    OpenAI宣布,其聊天机器人ChatGPT现在可以「看、听、说」,或者至少能够理解口语,用合成的声音回应并处理图像。这次更新是自引入GPT-4以来OpenAI最大的一次改进。但该公司还指出,在此过程中转录被视为输入,并可能用于改进大型语言模型。

  • DeepMind让大模型学会归纳和演绎,GPT-4准确率提升13.7%

    大型语言模型在推理任务上表现出令人惊艳的能力,特别是在给出一些样例和中间步骤时。prompt方法往往依赖于LLM中的隐性知识,当隐性知识存在错误或者与任务不一致时,LLM就会给出错误的回答。对于GPT3.5来说,这种改进并不显著,因为在处理文本输入时,它经常产生除规则幻觉以外的错误。

  • 智谱AI发布MathGLM数学模型 算术任务性能优于GPT-4

    智谱AI发布MathGLM数学模型,旨在增强大模型在数学推理方面的性能。它能够精确计算算术运算,包括基础算术运算和复杂混合运算,并提升模型的中文数学解决能力。MathGLM还在解决不同年级数学问题和数学应用题上进行了实验,取得了较好的结果。