近日,Meta 公司(Facebook、Instagram、WhatsApp 及 Threads 的母公司)宣布将其内部的安全和隐私审查工作转向人工智能,计划让高达90% 的风险评估自动化。根据《国家公共广播电台》(NPR)获得的内部文件,以往由专门团队负责评估更新对用户隐私的影响、对未成年人的伤害,或者对错误信息传播的影响,现在这些责任将主要转移给 AI 技术。
在新的评估框架下,产品团队需填写一份问卷,详细描述更新内容,随后 AI 系统将即时给出评估结果,指出潜在风险并设定项目所需的条件。人类监督只会在特定情况下需要,比如项目引入了新的风险,或者团队特别要求人类参与。Meta 内部的一张幻灯片显示,团队将会基于 AI 评估 “获得即时决策”。
这一变化使开发者能够更快地发布新功能,但包括前 Meta 高管在内的专家对此表示担忧,认为快速推出产品的同时,谨慎性也随之下降。“在某种程度上,这意味着更多的产品更快上线,而监管和对立审查减少,这将导致更高的风险,” 一位匿名的前 Meta 高管指出。
Meta 对此表示,新的流程旨在 “简化决策”,并称 “人类专业知识” 仍将用于 “新颖和复杂的问题”。尽管公司坚持只有 “低风险决策” 被自动化处理,但内部文件显示,涉及 AI 安全、青少年风险和内容完整性等更敏感领域也将进行自动化评估。
一些 Meta 内部和外部人士警告称,过度依赖 AI 进行风险评估可能是短视的。一位前员工表示:“每当他们推出新产品时,都会受到很多审查,而这些审查经常会发现公司应该更加认真对待的问题。”
此外,自2012年以来,Meta 一直受到联邦贸易委员会(FTC)的协议约束,要求其对产品更新进行隐私审查。Meta 声称已经在隐私程序上投资超过80亿美元,并不断完善流程。
有趣的是,欧洲用户可能不会面临相同程度的自动化。内部沟通显示,针对欧盟产品的决策将仍由 Meta 在爱尔兰的总部管理,这是由于《数字服务法》对内容和数据保护实施了更严格的规定。
划重点:
🛡️ Meta 计划将90% 的风险评估工作交由 AI 完成,旨在加速产品更新。
⚠️ 专家担忧此举可能导致安全隐患,降低人类的审查力度。
🇪🇺 欧洲用户的产品评估仍由 Meta 总部负责,符合当地法规要求。