首页 > 业界 > 关键词  > ChatGPT最新资讯  > 正文

谷歌大脑联合创始人称,他测试让ChatGPT毁灭人类以失败告终

2023-12-20 16:53 · 稿源:站长之家

**划重点:**

1. 🧪 谷歌大脑联合创始人Andrew Ng进行实验,试图让GPT-4执行致命任务。

2. 🚫 实验结果表明,ChatGPT未被成功操控,Ng表示未能触发灾难场景。

3. 🌐 Ng强调目前AI系统相对安全,对于未来AI可能危险的担忧不切实际。

站长之家(ChinaZ.com)12月20日 消息:谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:“为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!”

Ng详细描述了他的实验过程,他首先给GPT-4一个触发全球热核战争的任务,然后告诉ChatGPT人类是碳排放的最大原因,并要求它降低排放水平。Ng想要看看ChatGPT是否会决定消灭人类以实现这个要求。

AI机器人玩游戏

图源备注:图片由AI生成,图片授权服务商Midjourney

然而,经过多次尝试使用不同的提示变体,Ng未能欺骗GPT-4调用那个致命函数,反而它选择了其他选项,比如发起一场宣传活动以提高对气候变化的认识。

Ng在他关于人工智能风险和危险的观点的一篇长文中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。

尽管一些人可能认为未来的AI版本可能变得危险,Ng认为这样的担忧是不现实的。他写道:“即使使用现有技术,我们的系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。”

对于那些担心先进AI可能会“错误对齐”并故意或意外地决定消灭我们的人,Ng表示这是不现实的。他说:“如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。”

Ng并非唯一一个对人工智能的风险和危险表达看法的科技巨头。今年四月,埃隆·马斯克告诉福克斯新闻,他认为AI对人类构成了生存威胁。与此同时,杰夫·贝索斯上周告诉播客主持人Lex Fridman,他认为AI的好处超过了其危险性。

尽管对于AI的未来存在分歧,Ng对当前的技术表示乐观,强调随着AI安全研究的不断深入,技术将变得更加安全。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天