首页 > 业界 > 关键词  > 人工智能风险最新资讯  > 正文

ChatGPT之父警告AI可能灭绝人类 应该和流行病一起成为全球优先事项

2023-05-31 11:17 · 稿源:站长之家用户

顶尖AI研究人员、工程师和首席执行官联名发出最新警告:应将缓解人工智能带来的灭绝风险视为全球优先事项,与流行病和核战争等规模相当的风险一起考虑。

这份22 字简洁声明发布在非营利组织安全人工智能中心(Center for AI Safety)的网站上。该网站称,人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的各种风险。然而,要表达对于先进人工智能最严重风险的担忧很难,所以下面的简明声明旨在克服这一困难并展开相关讨论。此外,它还旨在为越来越多的专家和公众人物提供常识,以认真对待先进人工智能的一些最严重风险。

机器人 AI 人工智能 (1)

超过350名从事人工智能工作的人士签署了该声明。签署者包括Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)、OpenAI首席执行官山姆·奥特曼(Sam Altman)和“AI教父”杰弗里·辛顿(Geoffrey Hinton)和约书亚·本希奥(Youshua Bengio)等人。在这些签署者中,辛顿和本希奥因其在AI方面的工作获得了2018年图灵奖。

今年早些时候,这些签署者中的一些人共同签署了另一封公开信,呼吁至少暂停6个月开发比GPT-4更高级的AI。然而,这封信在多个方面受到批评。一些专家认为它过分强调了人工智能带来的风险,有些人则认同存在这种可能性,但不同意信中的建议措施。

安全人工智能中心的执行主任丹·亨德里克斯(Dan Hendrycks)告诉《纽约时报》,5月30日发布的声明很简洁,没有提出解决人工智能威胁的任何潜在方法,这是为了避免进一步产生分歧。他说:“我们不想为此推出一个包含30种潜在干预措施的大菜单。如果这样做,它会淹没主要信息。”

尽管22个词的声明并没有提供具体解决方案,但它十分引人关注。声明的发布旨在引起各界人士对人工智能威胁的关注,以采取必要的措施缓解相关风险。此举为全球各国和地区采取紧急措施,以应对可能的人工智能风险提供了紧迫而严峻的论据。

猜你喜欢:

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天