站长之家(ChinaZ.com) 10 月 23 日消息:一位受邀参加下个月 Rishi Sunak 国际人工智能安全峰会的高管警告说,这次会议可能收效甚微,并指责强大的科技公司试图「操纵」这场具有里程碑意义的会议。
人工智能安全研究公司 Conjecture 的首席执行官 Connor Leahy 表示,他相信政府首脑准备同意一种监管方式,允许企业继续开发「上帝般」的人工智能,几乎不受限制。
Leahy 是仅有的 100 位受邀者之一,包括外国政府部长、科技高管和民间社会人士,他们受邀参加 11 月在 Bletchley Park 举行的峰会。英国政府希望这次峰会将标志着高级 AI 技术的开发方式发生转变。
官员们已经发布了峰会议程,提到了「负责任的能力扩展」的重要性,即大型科技公司应根据一套指南开发他们的尖端 AI 模型。
然而,Leahy 和其他人认为应该完全停止开发人工通用智能——能够在人类或超越人类智能水平执行任务的 AI 模型。
Leahy 表示:「负责任扩展的主要目标是提供一个看起来好像有所作为的框架,以便政客们可以回家说:『我们已经做了一些事情。』但实际政策什么都没有。」
Leahy 和其他人已经发起了一个名为「Control AI」的运动,敦促政策制定者更进一步,敦促政策制定者进一步利用 Bletchley Park 峰会暂停开发最复杂的人工智能形式。
与行业中的一些其他人一样,Leahy 认为,如果人类开发了一个能够逃避人类控制的 AI 系统,人类将面临风险。
他说:「如果你构建的系统在操纵、商业、政治、科学等各方面都比人类更有能力,而我们无法控制它们,那么未来将属于它们,而不属于我们。」
「特别是人工智能公司和它们周围的其他组织正在试图登上顶峰,锁定一场不受监管的灾难竞赛的现状,」他补充道。
Leahy 引用了 AI 公司 Anthropic 首席执行官 Dario Amodei 最近的一次采访,Amodei 表示,AI 系统「在人类文明规模上出现灾难性错误」的机会在 10% 到 25% 之间。
Leahy 说:「如果你正在构建一个有这种机会的机器,那么我的建议是:不要这样做。」
政府发言人表示,这次峰会是关于 AI 的「全球对话」的开始,将欢迎「多元的观点」。
然而,Leahy 的言论与 AI 领域的其他人最近发出的警告相吻合。
被称为「AI 教父」的 Geoffrey Hinton 最近辞去了谷歌的工作,发出了关于数字智能带来的「生存风险」的警告。
几周后,包括 Leahy 在内的一群 AI 行业的高管发布了一份简短的声明,称「减轻 AI 带来的灭绝风险应该是全球首要任务,与大流行和核战等社会规模的风险并列」。
这些警告促使 Sunak 于 11 月 1 日至 2 日召开峰会。这次峰会旨在成为国家元首和科技高管首次亲自讨论这些问题的论坛。
英国官员一直在全球各地鼓励各国元首参加这次会议,他们希望这将是一系列此类峰会中的第一次。
前谷歌首席执行官 Eric Schmidt 和 Inflection 和 DeepMind 的联合创始人 Mustafa Suleyman 上周呼吁国际领袖设立一个类似于气候变化政府间专门委员会的全球 AI 专家委员会。英国官员表示,他们支持这样一个机构,但认为应该将其运作的具体细节留给联合国的讨论。
相反,英国政府消息人士表示,他们希望看到 AI 行业放慢其人工通用智能的发展,他们表示,这样的举措在技术史上是前所未有的。
然而,Leahy 认为,模糊的承诺继续负责任地开发先进的 AI 将不够,他补充说,这将意味着技术公司胜过监管机构。
政府发言人表示:「AI 安全峰会将汇集各类与会者,包括国际政府、学术界、工业界和民间社会,作为共同合作的一部分,推动安全和负责任的 AI 发展的有针对性、迅速的国际行动。」
「对于这种性质的峰会来说,这是完全正常的,我们不会提前这么长时间确认与会者。这是关于前沿人工智能风险的全球对话的开始,我们欢迎不同的观点——这是峰会的优势。」
(举报)