11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
【新智元导读】LLM能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主TimothyGowers分享了实测GPT-4o的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连Claude3.5也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的LLM都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任TimothyGowers直接拿GPT-4o开刀,去解决动物过河难题。LLM的未来究竟走向何处?最大的未知变量也许就在于,我们是否还能发现类似思维链这种解锁模型性能的「大杀器」了。
一项新的“大模型Benchmark”在推特上爆火,LeCun也点赞转发了!且无论是GPT-4还是Claude3,面对它都如同被夺了魂,无法给出正确答案。难倒一众大模型的,是逻辑学当中经典的“动物过河”问题,有网友发现,大模型对此类问题表现得很不擅长。前面网友针对训练数据和输出关系的分析,可能不无道理。
硅谷正经历着一场由人工智能引发的激烈辩论。引领这一风潮的不是别人,正是机器学习之父、图灵奖得主、Meta首席人工智能科学家YannLeCun。他的坚定立场和科学精神,犹如硅谷的“鲁迅”,为这一充满争议的领域带来了清晰的见解和理性的声音。
当地时间5月26日,马斯克旗下的人工智能初创公司xAI宣布完成B轮60亿美元融资。主要的投资者包括ValorEquityPartners、VyCapital、AndreessenHorowitz、红杉资本等。如果这个说法是成立的,那么在通往探索AGI的道路上,显然我们需要更多他这样的“鲁迅”。
【新智元导读】这几天的维也纳,上演了一场AI圈的狂欢。在ICLR2024上,图灵巨头LeCun、Bengio纷纷现身,直接让现场挤爆,变成追星现场。2024年,若想化身为AGI元年,全世界大模型团队还有很长的路要走。
自2012年AlexNet开启的深度学习革命已经过去了12年。我们也进入了大模型的时代。虽然现在有了高级框架,但在它们无法轻松实现极致性能时,仍然需要回到最底层,亲自编写CUDA/C代码。
在人工智能领域,很少有像YannLeCun这样的学者,在65岁的年龄还能高度活跃于社交媒体。YannLeCun都是以「直言不讳的批评者」形象活跃于人工智能领域。在拥有世界模型、能够自训练以了解世界如何运作的系统之前,我们不会在机器人技术方面取得重大进展。
LeCun在「视觉世界模型」论文中详细介绍了世界模型在AI学习物理世界中的关键作用。世界模型相比自回归学习范式能更好地理解世界,掌握物理世界的关键。LeCun的「视觉世界模型」论文有望成为AI学习物理世界的关键里程碑。
谷歌Gemini震撼了业界,它是谷歌「最大、最有能力和最通用」的AI系统,号称第一个原生多模态大模型,能力超越GPT-4,也被认为是谷歌反击微软和OpenAI的强大工具。在2月8日,谷歌还把自家对标ChatGPT的服务Bard更名为Gemini,以着重体现新使命——旨在提供对「最强模型系列」的访问。这或许也体现了OpenAI一直强调安全性,及其建立RedTeamingNetwork的先见之明。
【新智元导读】短短几天,「世界模型」雏形相继诞生,AGI真的离我们不远了?Sora之后,LeCun首发AI视频预测架构V-JEPA,能够以人类的理解方式看世界。Sora一经面世,瞬间成为顶流,话题热度只增不减。它仍然是插值潜在空间的嵌入,到目前为止你还不能以这种方式构建「世界模型」。
只需一张照片,整个过程无需训练LoRA模型,多风格AI写真即刻呈现!最近,有一群来自小红书的95后神秘团队,自称InstantX,搞了个大动作——开源「InstantID」项目。InstantID凭借着高质量的图像生成能力,在开源界掀起了一股热潮:不仅获得了众多技术大佬的点赞,更是在GitHub热榜上迅速飙升,成为焦点。期待小红书该开源项目的后续进展,未来能在多个领域发挥出更大的价值。
【新智元导读】新的SOTA再次出现,CodeLlama系列最强模型发布,70B代码模型一举击败GPT-4,开源代码登陆各大平台,大佬直接开玩。Meta正式发布了CodeLlama70B,作为CodeLlama系列中规模最大,性能最强的版本,一举击败了GPT-4!目前,模型共有三个版本,均可免费用于研究和商业目的:算上8月份发布的CodeLlama7B、13B和34B,这个家也算是完整了。然后这位索性把CodeLlama70B直接量化到了4bit。
Mamba架构论文因在ICLR2024评审中得到低分引起关注。该架构去年底由CMU和普林斯顿的研究者提出,被认为有颠覆Transformer的潜力。在这个过程中,LeCun的经历成为引发讨论的契机,引导学术界关注同行评审制度的合理性和公正性。
AI理解视频不能依靠在像素空间中预测。在互联网文本数据即将枯竭之际,很多AI研究者将目光转向了视频。一旦我们搞清楚怎么实现这一切,就不会有人还愿意用目前的方式。
根据图灵奖得主、Meta首席AI科学家在世界经济论坛上的讲话,生成模型不适合处理视频,AI得在抽象空间中进行预测。在互联网文本数据即将枯竭之际,很多AI研究者将目光转向了视频。这将需要一些科学和技术上的突破,对于在制造业、生物学等领域进行常识推理都具有重要意义。
【新智元导读】当前的视觉模型哪个更好?Meta团队最新一波研究来了。如何根据特定需求选择视觉模型?ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较?来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。-CLIP模型具有较高的形状偏差,与其ImageNet精度相比,分类错误较少。
近期来自纽约大学和UC伯克利的研究团队在多模态大语言模型领域取得了重要突破,成功捕捉到了其在视觉理解方面存在的重大缺陷。研究人员发现,当前的MLLM在特定场景下,甚至在一些人类容易识别的图像问题上,表现不如随机猜测。这不仅对AI领域的研究有着积极的推动作用,也为未来开发更强大、全面的多模态大模型奠定了基础。
大厂们在整活方面开始卷起来了!前脚字节阿里的工具火了,现在腾讯这个新照片生成应用PhotoMaker直接刷屏,瞧这阵仗……只需上传一张或以上照片,无需额外LoRA训练,就能快速可定制。任何人、任何风格,高保真那种。比如改变年龄或性别、将旧照片或艺术作品中的人物还原到现实中以及身份混合等。
通用AGI,或许近在咫尺。OpenAI下一步「登月计划」,就是实现人类期待已久的超级人工智能到达这一步的前提是——解决超级AI对齐问题。所以研究人员为智能体提供互联网访问,或提供文本材料作为输入上下文,这些方法对之后的研究提供了帮助。
近日,OpenAI正在对最新的GPT4.5turbo模型进行灰度测试,该模型在文本生成质量、效率、上下文理解、多模态能力、编程和代码生成、安全性、个性化定制等七个方面都取得显著进展。Gemini自曝中文用文心一言训练Gemini-Pro在谷歌VertexAI平台上自称为百度文心大模型,引发网友疑虑。产品体验地址:https://www.hrblock.com/online-tax-filing/👨💻💡🎯聚焦开发者EPFL与苹果联手开源人工智能
在Meta庆祝其基础AI研究团队成立10周年的活动中,该公司首席科学家兼深度学习先驱YannLeCun表达了对当前人工智能系统发展的看法。LeCun认为,现有AI系统距离达到某种程度的自我意识,具备推动其能力超越仅仅以创造性方式总结大量文本的常识,仍有数十年的时间。」「我们十年前开始建立一个AI实验室的原因是,很明显这项技术将在未来几年内商业化,」Schroepfer说。
人工智能领域的重要人物之一,LeCun在最新访谈中再次表达了他对开源人工智能的坚定看法。他强调了未来可能出现超越人类智能的情景,但同时指出这些人工智能不会成为人类的主宰。他的观点引起了广泛关注,让人们对人工智能的未来有了更深入的思考。
【新智元导读】大模型能否理解自己所说,Hinton和LeCun再次吵起来了。LeCun新论文证明,GPT-4回答问题准确率仅为15%,自回归模型不及人类。GPT-4无法处理文件和多模态问题,但能够解决注释者使用网络浏览解决的问题,主要是因为它正确地记住了需要结合起来才能得到答案的信息片段。
LeCun在推特上引发了关于大语言模型推理能力的讨论,强调LLM缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究通过多个实验验证LLM在复杂规划任务上表现不佳,强调其能力受限于任务复杂度。随着对LLM的研究的不断深入,对其真实能力的理解也在逐渐清晰,为未来自然语言处理研究方向提供了有价值的参考。
在大型语言模型的领域,OpenAI的ChatGPT因其卓越性能和广泛应用引起轰动,成为瞩目的焦点。在ChatGPT之前的两周,Meta发布了Galactica,一款试用版模型。Taylor强调他们的研究仍然有价值,并且从Galactica的经验中学到的教训已经用到了后续的LLaMA2项目中。
GPT-4解决网络名梗“吉娃娃or蓝莓松饼”,一度惊艳无数人。现在它被指出“作弊”了!全用原题中出现的图,只是打乱顺序和排列方式。比如GPT-4V能正确数出七个小矮人白雪公主,却把七个葫芦娃数成了10个。
AI巨佬们撸起袖子线上“对喷”,一“架”直接干上热搜了。Bigname一个接一个出现不说:吴恩达、Hinton、LeCun、哈萨比斯……甚至吵到稳如Hinton,都开麦阴阳怪气起来:搞得如此面红耳赤,为的还是“大模型会不会毁灭人类”这个热点话题。公开信建议,监管机构应该对AI发展全面洞察,尤其警惕那些在价值数十亿美元的超级计算机上训练出来的大模型。
在一场关于AI监管的激烈辩论中,吴恩达、LeCun等知名AI专家就监管问题发表不同意见。吴恩达支持开放性监管,他认为不合格的监管不如不监管,主张避免过度的政府干预。这场争论揭示了AI监管问题的复杂性,以及在技术发展和社会保护之间的权衡。
【新智元导读】GPT-4根本不知道自己犯错?最新研究发现,LLM在推理任务中,自我纠正后根本无法挽救性能变差,引AI大佬LeCun马库斯围观。大模型又被爆出重大缺陷,引得LeCun和马库斯两位大佬同时转发关注!在推理实验中,声称可以提高准确性的模型自我纠正,把正确率从16%「提高」到了1%!简单来说,就是LLM在推理任务中,无法通过自我纠正的形式来改进输出,除非LLM在自我纠�
AI尤其是大模型时代的开源与闭源,有利有弊,重要的是如何在使用的过程中做好文章。人们在AI领域的开源与闭源选择上存在着分歧在大模型时代,开源这股强大的力量已经悄然崛起。关于开源与闭源的分歧会一直延续下去,但开源已经无法阻挡。