划重点:
1. 📜 加拿大发布自愿行为准则:加拿大政府发布了有关生成式人工智能系统的自愿行为准则,旨在规范该技术的发展与使用。
2. 🧐 准则内容概述:准则要求开发者和管理者在系统开发中承担责任、确保安全性、公平与公正,提高透明度、进行人工监督和监控,并确保系统有效性与健壮性。
3. 🌐 影响与法律修正:这一准则可能影响到加拿大的生成式AI系统开发和维护,同时也可能影响到有关人工智能法律的修订,以更好适应技术发展。
站长之家(ChinaZ.com) 10月13日 消息:加拿大政府最近发布了一份关于生成式人工智能系统的自愿行为准则,旨在规范这一新兴技术的发展与使用。这一准则对生成式AI系统的开发者和管理者提出了一系列要求,以确保其发展与运营在公平、安全、透明、有人工监督和有效性方面达到一定标准。
图源备注:图片由AI生成,图片授权服务商Midjourney
这一自愿行为准则涵盖了多个关键方面,包括责任、安全、公平与公正、透明度、人工监督和监控,以及有效性与健壮性。以下是准则的主要要点:
问责制:准则要求所有生成式AI系统的开发者和管理者建立全面的风险管理框架,包括政策、程序和培训。对于创建公共使用的生成式AI系统,还需要在发布之前采取多重防御措施,如第三方审计。
安全:生成式AI系统的开发者和管理者需要进行全面的风险评估,包括可能的不当或恶意使用风险。他们还需要采取适当的措施来减轻已识别的风险,并向下游开发者和管理者提供适当的系统使用信息以及减轻措施。
公平与公正:特别适用于所有生成式AI系统的开发者,包括公共使用的系统。他们需要评估和策划用于培训的数据集,以管理数据质量和潜在偏见,并在发布AI系统之前实施多样化的测试方法和措施,以评估和减轻输出的偏见风险。
透明度:准则要求公共使用的生成式AI系统的开发者发布有关系统能力和限制的信息,并实施可靠和免费的检测生成内容的方法,重点关注音频-视觉内容。同时,他们需要公开描述用于开发系统的培训数据类型以及识别和减轻风险的措施。
人工监督和监控:开发者需要在部署后维护有关已报告事件的数据库,并提供更新以确保有效的减轻措施。管理者需要在系统发布后监控其操作,以防止有害使用或影响,并采取第三方反馈渠道和实施使用控制以减轻危害。
有效性与健壮性:生成式AI系统的开发者需要在部署之前使用各种测试方法来衡量性能和确保健壮性,包括采用对抗性测试来识别漏洞,评估网络安全风险并实施适当的措施来减轻风险,以及基准测试以衡量模型的性能。
这一自愿行为准则已经得到了许多知名机构的签署,表明其在当前加拿大生成式AI系统开发和维护框架中的重要性。
此外,这一准则还可能影响到有关《人工智能与数据法案》(AIDA)的修订,使其更加结构化和具体化,以适应技术的发展。当前,AIDA法案已经在工业与技术委员会审议中,加拿大政府提出了一系列修改,包括明确定义“高影响”系统类别、为通用AI系统制定特定义务、加强AI系统价值链的区分、明确拟议AI专员的角色,并进行与欧盟和其他OECD法域立法一致的修改,以确保加拿大企业能够与其他法域互操作并进入国际市场。
(举报)