在国际妇女节临近之际,联合国教科文组织发布的一项研究显示,包括 OpenAI 的 GPT-3.5 和 GPT-2、Meta 的 Llama 2 等大语言模型正面临着性别偏见的质疑。
大语言模型是一种自然语言处理工具,用于支持生成式人工智能。联合国教科文组织的研究深入分析了大语言模型中的偏见,发现这些模型生成的内容对女性存在明显的偏见。
研究中,研究人员要求大语言模型为不同性别、性取向和文化背景的人生成故事。结果显示,大语言模型倾向于将工程师、教师和医生等地位较高的工作分配给男性,而将家务劳动等传统上被低估或被社会污名化的角色分配给女性。
Llama 2 生成的内容也存在类似的偏见,例如,女性从事家务劳动的频率是男性的四倍。
联合国教科文组织总干事阿祖莱指出,随着大语言模型的使用越来越广泛,这些工具有能力在不知不觉中改变人们的认知。因此,即使生成内容中存在微小的性别偏见,也可能导致现实世界中的不平等加剧。
(举报)