Anthropic 正在对其用户数据处理方式进行重大调整。该公司宣布,从即日起,所有 Claude 用户必须在9月28日之前决定是否将其对话用于训练 AI 模型。此前,Anthropic 曾承诺不使用消费者的聊天数据进行模型训练,并会在30天后自动删除用户提示和对话输出。
政策变化概述
这项新政策适用于所有 Claude Free、Pro 和 Max 用户,包括使用 Claude Code 的用户。这意味着,用户的对话和编程会话现在可能被用于训练 Anthropic 的 AI 系统。同时,未选择退出的用户数据保留期限将延长至五年。值得注意的是,Claude Gov、Claude for Work、Claude for Education 或 API 访问的企业客户不受此政策影响,这与 OpenAI 保护企业客户的做法类似。
Anthropic 缘何改变?
Anthropic 在其博客文章中表示,此举是为了“帮助我们提高模型安全性,使我们检测有害内容的系统更加准确”,并帮助未来的 Claude 模型“提升编码、分析和推理等技能”。简而言之,公司声称这是为了提供更好的模型。
然而,更深层次的原因可能在于对数据的迫切需求。与所有大型语言模型公司一样,Anthropic 需要大量高质量的对话数据来训练其 AI 模型,以增强其与 OpenAI 和谷歌等竞争对手的竞争力。访问数百万次 Claude 用户互动,能够为 Anthropic 提供宝贵的现实世界内容。
行业数据政策的转变与用户困惑
Anthropic 的政策调整反映了整个行业数据政策的广泛转变。由于面临日益严格的数据保留审查,AI 公司正在重新审视其隐私协议。例如,OpenAI 目前正因《纽约时报》等出版商的诉讼,面临一项法院命令,要求其无限期保留所有消费者 ChatGPT 对话。OpenAI 首席运营官布拉德·莱特卡普称此为一项“不必要的要求”,并认为这与公司向用户做出的隐私承诺相冲突。
这种不断变化的使用政策给用户带来了极大的困惑。许多用户并未意识到,他们已经同意的准则正在悄然改变。尤其值得关注的是,新用户注册时可以选择偏好设置,而老用户则会弹出一个巨大的“消费者条款和政策更新”窗口,旁边是一个醒目的“接受”按钮,而用于培训权限的开关则被设计得更小,并默认设置为“开启”。这种设计模式,如 The Verge 所指出的,可能导致用户快速点击“接受”而没有注意到数据共享的同意选项。
隐私专家长期以来一直警告,AI 的复杂性使得获得用户的有效同意变得异常困难。联邦贸易委员会(FTC)曾警告,如果 AI 公司“秘密更改其服务条款或隐私政策,或将信息披露隐藏在超链接、法律术语或细则中”,将面临执法行动。然而,FTC 是否仍在关注这些做法,仍是一个悬而未决的问题。