首页 > 业界 > 关键词  > AI模型最新资讯  > 正文

斯坦福研究发现全球AI模型Llama 2缺乏透明度

2023-10-19 09:51 · 稿源:站长之家

🔍划重点:

1. 斯坦福大学发布的“基础模型透明度指数”揭示,包括Meta在内的顶级AI模型开发者未能提供足够关于其对社会潜在影响的信息。

2. Meta的Llama2在透明度方面表现最佳,但即使如此,十大最受欢迎的模型中仍有10个透明度不足。

3. 研究人员认为透明度是一个广泛的概念,他们根据100个指标评估模型的构建方式、运作原理以及人们如何使用它们来定义透明度。

站长之家(ChinaZ.com) 10月19日 消息:斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。

这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。其中,Meta的Llama 2获得最高分,其次是BloomZ和OpenAI的GPT-4,但仍未获得特别高的分数。

Llama2,Meta,人工智能,大语言模型,AI

研究人员强调,透明度是一个广泛的概念,他们根据100个指标评估模型的构建方式、运作原理以及人们如何使用它们。他们主要依赖公开信息,为每个模型打分,关注公司是否披露了合作伙伴和第三方开发者,以及是否向客户说明他们的模型是否使用私人信息等。

尽管Meta在基础模型方面表现最佳,获得54%的分数,但仍未提供有关社会影响的任何信息,包括隐私、版权或偏见投诉的解决途径。OpenAI则因未公开大部分研究以及数据来源,但由于有关其合作伙伴的大量信息可供查看,GPT-4的分数相对较高。

报告的作者表示,他们的目标是为政府和公司提供一个衡量标准。一些拟议中的法规,如欧盟的AI法案,可能会迫使大型基础模型的开发者提供透明度报告。

这一研究显示,尽管生成式AI拥有庞大而活跃的开源社区,但该领域的一些最大公司并不公开分享研究成果或代码。即使OpenAI的名称中含有“开放”,但出于竞争和安全的考虑,他们已经不再公开发布研究。

斯坦福大学的研究团队表示,他们愿意扩大指数的范围,但目前将继续关注已经评估的十大基础模型。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: