首页 > 业界 > 关键词  > 马斯克最新资讯  > 正文

马斯克:旁观者无法决定「结果」 智能 AGI 实际上会对人类更友好

2023-07-18 08:23 · 稿源:站长之家

站长之家(ChinaZ.com) 7月18日消息:埃隆·马斯克曾是 OpenAI 的联合创始人,OpenAI 是 ChatGPT 这一知名人工智能聊天机器人的开发者。由于与 OpenAI CEO Sam Altman 和董事会产生冲突,他退出了该公司。现在他声称自己的人工智能公司 xAI 将与 OpenAI 竞争,实现人工超级智能这一宏伟目标。

6382518154990074946141446.jpg

xAI 网站截图

在上周五进行的一场近两小时的 Twitter Spaces 讨论中,这位全球最富有的人谈到了他的公司的目标,即创建一种 AGI(通用人工智能),即至少和人类一样聪明的人工智能。

「xAI 的总体目标是构建一个良好的 AGI,其总体目的只是为了试图理解宇宙,」马斯克在讨论中表示。「构建一个安全的人工智能的最佳方式实际上是制造一个最大程度上充满好奇心和追求真相的人工智能。

特斯拉的首席执行官还表示,影响未来是他在经营 xAI 方面的动力之一,他不想被排挤在当前的人工智能竞争中。他解释说,旁观者无法决定「结果」

AGI 通常被构想为一种可以执行人类任何任务并具有与人类相同智能的机器。长期以来,它一直是科幻作品中的主题,被描绘为具有足够智能和自主性的存在威胁人类的存在。马斯克认为 AGI 是「不可避免的」,因此他希望能参与确保它按照他的标准进行开发。

马斯克还表示,一个「单极」未来,即一家公司垄断人工智能,将是不可取的。这些言论是在 OpenAI 的 7 月 5 日博客文章之后发表的,该文章也预测 AGI 是不可避免的,并且可能在未来十年内出现。

OpenAI 的 Sam Altman 对他曾助力推动的技术发表了类似末日的言论,将超级智能的威胁与流行病和核战争相提并论。他还表达了担心,拥有这项技术的「独裁政权」可能会利用它对世界造成伤害。

然而,马斯克采取了相反的方法,他认为如果超级智能的 AGI 对我们感兴趣,它实际上会对人类更友好。

「我关于最大好奇心和最大真实性作为最安全方法的理论是,我认为对于超级智能来说,人类比不是人类更有趣,」马斯克在 Twitter Spaces 上说。「看看我们太阳系中的各个行星、卫星和小行星,实际上它们所有加在一起都不如人类有趣。」

如果 xAI 创造出一种足够聪明的机器,发现人类比太空中的岩石更有趣,根据这位亿万富翁的说法,我们可能有机会幸存下来。他的理论让人想起了 1967 年经典的短篇小说《I Have No Mouth, and I Must Scream》,故事中有一个名为 AM 的超级计算机吞噬了整个世界,摧毁了所有人类,只留下了五个不幸的幸存者。AM 已经根除并完全控制了世界,为了获得娱乐(或复仇),它将这五个人类幸存者永远折磨。

如果马斯克所追求的「最大程度好奇心」的超级智能确实认为人类有趣,但这对人类来说可能仍然是一个负面的结果,如果现实生活效仿艺术小说的话。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天