首页 > 业界 > 关键词  > GitHub最新资讯  > 正文

GitHub等科技公司呼吁欧盟在人工智能法律中提供更多的开源支持

2023-07-26 16:52 · 稿源:站长之家

站长之家(ChinaZ.com)7月26日 消息:据theverge消息,在一份发给欧盟决策者的文件中,一群科技企业,包括 GitHub、Hugging Face、Creative Commons 等,鼓励对不同 AI 模型的开源开发给予更多支持,因为他们考虑最终确定 AI 法案。EleutherAI、LAION 和 Open Future 也联合签署了这份文件。

AI写作机器人写作

他们在最终规则之前向欧洲议会提出的建议清单包括:对 AI 组件的更清晰的定义,澄清业余爱好者和研究人员在开源模型上的工作并不是从 AI 中获得商业利益,允许对 AI 项目进行有限的现实世界测试,以及为不同的基础模型设定比例合理的要求。

Github 高级政策经理 Peter Cihon 告诉 The Verge,这份文件的目标是为立法者提供关于如何最好地支持 AI 发展的指导。他说,一旦其他政府出台了他们版本的 AI 法律,公司希望被听到。“我们希望决策者在动笔时,能够遵循欧盟的榜样。”

围绕 AI 的监管一直是许多政府关注的热点话题,欧盟是最早开始认真讨论提案的国家之一。但是欧盟的 AI 法案也因为对 AI 技术的定义过于宽泛,而同时又过于侧重于应用层而受到批评。

“AI 法案有望树立一个全球先例,在监管 AI 以解决其风险的同时鼓励创新,”这些公司在文件中写道。“通过支持正在蓬勃发展的开放生态系统方法来进行 AI,该法规有一个重要的机会来进一步实现这一目标。”

该法案旨在涵盖不同种类的 AI 的规则,尽管大部分关注都集中在拟议的法规将如何管理生成式 AI 上。欧洲议会于6月通过了一份草案政策。

一些生成式 AI 模型的开发者拥抱了分享模型访问权限和允许更大的 AI 社区玩弄它并建立信任的开源精神。Stability AI 发布了一个开源版本的 Stable Diffusion,Meta 也有点类似地将其大型语言模型 Llama2作为开源发布。Meta 并没有分享它从哪里获得了训练数据,也限制了谁可以免费使用该模型,所以 Llama2在技术上并没有遵循开源标准。

开源倡导者认为,当人们不需要为访问模型付费,并且对模型训练方式有更多透明度时,AI 开发效果更好。但这也给创建这些框架的公司带来了一些问题。OpenAI 决定停止分享关于 GPT 的大部分研究,因为担心竞争和安全问题。

发布该文件的公司表示,目前一些提议影响被视为高风险的模型,无论开发者大小如何,都可能对那些没有相当财力支持的人造成不利。例如,涉及第三方审计员“是昂贵且不必要的,无法缓解与基础模型相关的风险”。

该集团还坚持认为,在开源库上分享 AI 工具并不属于商业活动,因此这些不应受到监管措施的影响。

公司表示,禁止在现实环境中测试 AI 模型的规则“将严重阻碍任何研究和开发”。他们说,开放测试为改进功能提供了经验教训。目前,AI 应用不能在封闭实验之外进行测试,以防止未经测试的产品引起法律问题。

可以预见的是,AI 公司一直对欧盟的 AI 法案应该包含什么内容发表了自己的看法。OpenAI 向欧盟决策者游说反对对生成式 AI 实施更严厉的规则,而它的一些建议已经出现在最新版本的法案中。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: