首页 > 业界 > 关键词  > 语言模型最新资讯  > 正文

研究发现 AI 语言模型存在政治偏见

2023-08-15 10:25 · 稿源:站长之家

本文概要:

1. 研究人员发现 AI 语言模型中存在政治偏见。

2.ChatGPT 和 GPT-4被认为是最左翼自由主义的模型,而 Meta 的 LLaMA 被认为是最右翼独裁主义的模型。

3. 研究人员敦促企业认识到人工智能模型的偏见,并努力使其产品更加公平。

站长之家(ChinaZ.com)8月15日 消息:最近一项来自华盛顿大学、卡内基梅隆大学和西安交通大学的研究发现,AI 语言模型存在政治偏见。

研究人员测试了14个模型,并使用政治指南针测试来确定模型的政治倾向。

image.png

结果显示,OpenAI 的 ChatGPT 和 GPT-4被认为是最左翼自由主义的模型,而 Meta 的 LLaMA 被认为是最右翼独裁主义的模型。

研究人员指出,尽管政治指南针测试不是一个完美的方法,但它有助于揭示模型的偏见。他们敦促企业意识到这些偏见,并努力使其产品更加公平。

这项研究的结果提醒大家,在开发和使用 AI 语言模型时要警惕政治偏见的存在,并确保公正和多样化的表达。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: