首页 > 业界 > 关键词  > GPT-3最新资讯  > 正文

研究发现:GPT-3经常出错,重复有害的错误信息

2023-12-25 17:03 · 稿源:站长之家

划重点:

⦁ 研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解

⦁ 研究发现GPT-3经常出错,自相矛盾,并重复有害的错误信息

⦁ 大型语言模型如OpenAI的ChatGPT显示它们重复了阴谋论、有害的刻板印象和其他形式的错误信息

站长之家(ChinaZ.com)12月25日 消息:一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。

机器人上网

图源备注:图片由AI生成,图片授权服务商Midjourney

最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。

计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”

研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: