11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
GPT-5被曝效果远不达预期。OpenAI连续12场发布会刚刚结束,大家最想看的GPT-5/4.5影子都没有,于是华尔街日报这边爆料了。揭示了推理将成为提高模型安全性的一条新途径。
【新智元导读】全球顶会NeurIPS2024中,Ilya登场演讲,向全世界宣告:预训练结束了!数据如同化石燃料般难以再生,未来,AI的发展方向就是具备自我意识的超级智能。Ilya现身NeurIPS2024,宣布:预训练从此将彻底终结。毕竟预测未来是不可能的,任何事情都有可能发生。
Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是「越大越好」是找出Scaling的对象究竟应该是什么。SSI在用全新方法扩展预训练。如果GPT的发展没有加速,是不是就意味着末日论者错了——AI不会进入所谓的递归自我改进循环,在这个循环中,AI会一次又一次地找出如何制造下一个更好版本的自己?对此,MarcAndreessen认为,这种明显的平台期意味着这样的恐惧目前看
【新智元导读】「超级对齐」团队集体出走后,OpenAI最近正在频繁招聘,但不是技术团队是高管。前有CFO走马上任,今天又有一个退役的陆军上将成为董事会新成员。他在美国陆军的各个层级担任指挥和参谋职务,并在美国、韩国、伊拉克和阿富汗的精英网络部队中任职。
【新智元导读】今天,OpenAI发布了一篇GPT-4可解释性的论文,似乎是作为前两天员工联名信的回应。网友细看论文才发现,这居然是已经解散的「超级对齐」团队的「最后之作」。希望有一天,可解释性能够提供新的方法来推理模型的安全性和鲁棒性,并通过对强大的AI的行为提供强有力的保证,才能显著增加我们对模型的信任。
2003年夏天的一个周日,AI教父Hinton在多伦多大学的办公室里敲代码,突然响起略显莽撞的敲门声。门外站着一位年轻的学生,说自己整个夏天都在打工炸薯条,但更希望能加入Hinton的实验室工作。他们也都坚持认为,这个世界应该更加重视AI带来的风险,一个因此离开了工作10年的谷歌,一个因此离开了一手拉扯大的OpenAI。
在最新的消息中,OpenAI联合创始人兼首席科学家IlyaSutskever宣布正式离开公司,引发行业关注。此前曾协助领导了针对SamAltman的失败政变的Sutskever,最终改变了主意。这一系列变动引发了人们对OpenAI未来走向的猜测和关注。
前OpenAI首席科学家IlyaSutskever成为Nature评选的「2023年10大科学人物」,他强调只要能够极好地预测下一个token,就能帮助人类达到人工通用智能。Ilya认为大型语言模型,如ChatGPT,本质上是预测下一个字符的工具,具备超越人类智慧的综合能力。他强调了大型语言模型的潜力,并指出了人工智能对人类文明的深远影响。
人类无法监督超级人工智能,但人工智能可以。以「预测下一个Token」为本质的大模型已经横扫人类世界的多项任务,展现了人工智能的巨大潜力。图9a考虑了7个有代表性的NLP任务,并比较了微调、零样本提示和5-shot提示;对于零样本和5-shot基线,本文使用表2中总结的特定于任务的提示。
当我们以为一切尘埃落定的时候,事情又有了新进展。AI领域技术最领先,炙手可热的公司经历了史无前例的巨震。毕竟人工智能的未来还要仰赖这些工程师们的努力。