11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
斯坦福的一篇案例研究表示,提交给AI会议的同行评审文本中,有6.5%到16.9%可能是由LLM大幅修改的这些趋势可能在个体级别上难以察觉。LLM在飞速进步的同时,人类也越来越难以区分LLM生成的文本与人工编写的内容,甚至分辨能力与随机器不相上下。希望这些研究结果能够促进对于LLM在未来信息生态系统中应该如何使用以及可能带来的影响的深入探讨,从推动出台更加明智的政
斯坦福大学的研究人员最近发布了一种名为C3PO的新方法,旨在解决语言模型定制化面临的挑战。在人工智能领域不断发展的今天,语言模型的定制化对于确保用户满意度至关重要。这项研究的意义超出了技术成就的范畴,预示着人工智能可以无缝适应个人偏好、增强其实用性和可访问性的未来。
UMI是斯坦福开发的一个机器人数据收集和策略学习框架,通过手持式夹持器和精心设计的接口进行数据收集。该框架能够将人类在复杂环境下的操作技能直接转移给机器人,无需人类编写详细的编程指令。通过UMI,机器人能够快速学习新任务,提高操作能力,降低学习成本,推动机器人技术在各领域的广泛应用。
【新智元导读】近日,北大、斯坦福、以及PikaLabs发布了新的开源文生图框架,利用多模态LLM的能力成功解决文生图两大难题,表现超越SDXL和DALL·E3近日,北大、斯坦福、以及爆火的PikaLabs联合发表了一项研究,将大模型文生图的能力提升到了新的高度。论文地址:https://arxiv.org/pdf/2401.11708.pdf代码地址:https://github.com/YangLing0818/RPG-DiffusionMaster论文作者提出了一个全新的免训练文本�
【新智元导读】大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。在加入微软研究院之前,他曾在乔治亚理工学院和丰田工业大学芝加哥分校担任计算机科学助理教授。
【新智元导读】在社交媒体上发照片要谨慎了,AI工具一眼就能识破你的位置!随手在网络上发布的一张照片,能暴露多少信息?外国的一位博主@rainbolt就长年接受这种「照片游戏」的挑战,网友提供照片,他来猜测照片的具体拍摄地,有些照片甚至还能猜到具体的航班细节。是不是细思极恐?但「照片挑战」也同样抚慰了很多人心中的遗憾,比如拿着一张父亲年轻时候拍的照片,
一群斯坦福大学研究生发布了一个新项目,他们的AI模型经过了10万个随机位置、50万个街景图片以及其他图片的训练。这个模型能够快速准确地找出图片中的位置,目前的准确率达到了92%。所以对于普通用户来说,保护好隐私是至关重要的。
爆火的斯坦福全能家务机器人MobileALOHA,大!翻!!车!!!你以为它擦个红酒轻易举,但实际上却是这样的:全给你弄撒喽,顺带碎个杯子……你以为它能化身大厨娴熟烹炒,结果给你上演一个炒锅底:MobileALOHA的翻车大合集还不止这些。例如刚才炒完虾的锅,哎呦喂,一不小心没拿住:即使小哥一个箭步冲上去也没阻止“悲剧”的发生。除了这两家,李飞飞团队也一直在跟进,其名为VoxP
阿里云通义千问APP近日上线了一项名为“通义舞王”的免费功能,用户只需在APP内输入相应口令并上传照片,系统即可生成个性化的舞蹈视频。Meta发布生成式AI调试工具HawkEyeMeta发布了一款名为HawkEye的生成式AI调试工具,旨在解决机器学习模型在生产中面临的挑战。它能够帮助模型更好地理解和分析图像内容。
斯坦福华人团队开发的炒虾机器人MobileALOHA成为了全网的热议话题。这个机器人能够炒菜、洗碗等各种复杂任务,仅用50个演示就能够让机器人始终如一地完成一项任务。整个机器人的设计成本仅为22万元,相比其他类似机器人的价格要低廉许多。
斯坦福大学的研究人员利用维基百科数据训练了一个大模型,命名为WikiChat,通过优化和改进,成功解决了大模型的幻觉问题,并在事实准确性和其他指标上表现优秀。他们的最佳模型在新的基准测试中获得了97.3%的事实准确性,远远超过了GPT-4的66.1%。WikiChat的成功表明,维基百科数据在大模型训练中发挥了重要作用,通过检索增强生成的方法,可以有效解决大模型的幻觉问题�
【新智元导读】谷歌放出的Gemini,在对标GPT的道路上似乎一直处于劣势,Gemini真的比GPT-4弱吗?最近,斯坦福和Meta的学者发文为Gemini正名。Gemini的推理能力,真的比GPT-4弱吗?此前,谷歌憋出的重磅复仇神器GeminiPro,被发现在常识推理任务中落后于OpenAI的GPT模型。这表明模型已经掌握了空间关系和物理后果,具备了类似人类认知的复杂视觉信息能力。
随着ChatGPT的出现以及广泛应用,通过文本生成文本、视频、音频等内容,成为实现技术民主化的关键手段。在3D模型领域通过文本生成并不成熟,多数方法是通过图片。这样通过不断地优化,网格表面的颜色信息会逐渐跟多视角图片越来越接近,从实现纹理的提升。
【新智元导读】最近,一位斯坦福小哥用ChatGPT、DALL·E3和Midjourney联合生成了一款游戏,要求人类扮演AI,从AI那里骗取代码来拯救人类。由AI开发的AI游戏来了!最近,这款由ChatGPT、DALL·E3和Midjourney等AI联合生成的游戏,震惊了网友。相信不久后,Ramón会用「ThusSpokeZaranova」给我们带来新的惊喜。
随着ChatGPT等大模型被广泛应用在实际业务中,其输出内容的真实、可靠、安全性成为了重点。学术界则使用“归因”来表示追查、证实内容。斯坦福便是将协同归因和贡献归因的主要功能,整合在一个框架中方便开发者对大模型进行各种安全、内容验证。
随着大型语言模型在实际业务中的广泛应用,确保其输出的真实性和可靠性成为亟待解决的问题。学术界采用“归因”方法来追踪和证实模型输出的内容。斯坦福提出的“统一归因”框架为解决这一问题提供了新的思路和方法,有望推动大模型在各行业中的更广泛应用。
斯坦福大学的研究生们开发了一款名为PIGEON的应用程序,可以仅仅通过查看Google街景图像或其他图像来确定具体位置,其准确率令人印象深刻。根据预印本论文的数据,PIGEON可以以92%的准确率预测所拍摄国家,并且在40%的猜测中可以将位置定位在目标位置的25公里范围内。在将来的发展中,必须更加重视这些问题,并确保合适的保护措施得以实施。
谷歌与李飞飞的斯坦福团队携手推出了基于Transformer的视频生成模型W.A.L.T,标志着2023年成为AI视频元年。该模型利用因果编码器和窗口注意的变压器架构,成功将图像和视频压缩到一个共享的潜在空间,实现了联合训练和生成。在视频生成建模方面,W.A.L.T以其卓越性能和创新性设计成为当前研究的焦点,为学术界和工业界提供了有力的参考和启示。
最新研究指出,经过过度训练,中度的Transformer模型能够展现出结构性泛化能力,这一现象被称为"结构顿悟"。在自然语言处理中,先前的研究认为像Transformer这样的神经序列模型在泛化到新的结构输入时难以有效地捕捉句子的层级结构。这一发现有望在未来的深度学习研究中引起更多关注,为模型设计和训练策略提供指导。
斯坦福大学和卡内基梅隆大学的研究团队联合提出了一种新的序列模型,名为Mamba,它在语言、音频和DNA序列等任务上超越了Transformer模型。Mamba采用了一种新的架构,具有线性复杂度和更高的推理吞吐量。Mamba的出现对于序列建模领域来说是一个重要的突破,未来还有许多研究和实践的工作需要进行。
【新智元导读】仅有四人的初创公司,已经融资5500万美元,融资名单几乎集齐了硅谷的半壁江山,半年用户超50万,今天,Pika1.0闪亮登场,电影级特效震撼全网。RunwayGen-2最强竞品Pika,暌违半年忽然放出大招——Pika1.0正式发布!仅成立六个月,Pika就结束了测试版,正式发布了第一个产品,能够生成和编辑3D动画、动漫、卡通和电影。Pika的闯入,无疑再次搅动了AI视频领域的格局,战场上已经硝烟滚滚。
斯坦福大学最新研发的NOIR模型,成为一项引人注目的技术突破。这一通用型模型通过解码大脑信号,实现了人类通过思维来操控机器人的目标。这一突破性的技术将为未来的科技发展开辟新的方向,为社会的发展带来更多可能性。
研究人员从斯坦福大学和UNCChapelHill共同努力解决了大语言模型产生的事实性错误的问题,这些错误被称为“幻觉”。在没有人工标记的情况下,研究人员通过微调LLMs,采用新颖的方法,以在开放式生成环境中提高事实准确性。对提取原子事实的简化方法进行调查,并将事实性调谐方法扩展到更大的模型,如GPT-4,提出了进一步探讨的建议。
斯坦福大学的研究人员发现,手绘一个大致的轮廓,让机器人完成任务,是一种新颖的沟通方式。这种方式对于标准的拾取和放置任务非常有效。手绘轮廓助机器人任务完成,成为了一种创新的沟通方式,将为工业生产和智能技术的发展带来新的动力。
一项由北卡教堂山、斯坦福、哥大、罗格斯等大学的研究人员合作开发的通用修正器LURE已经面世,旨在应对多模态大模型中出现的物体幻觉问题。这些幻觉问题包括物体共现、不确定性和物体位置,这些问题会对视觉摘要、推理等任务产生负面影响。LURE是一项有望解决多模态大模型中幻觉问题的重要工具,通过对关键因素的分析和修正,为这些模型提供更准确的输出,有望在多领域的人工智能应用中产生积极影响。
2023斯坦福大学的AI指数报告揭示了印度在全球人工智能领域的重要角色。该报告显示,印度在AI技能渗透率方面名列全球前茅,具有最高的AI技能渗透率。印度正在充分利用其杰出的人才储备,将AI应用于解决全球性问题,如健康、教育和营养,为AI领域的进步做出了积极贡献。
最新研究发现,传统的提示工程在AI领域正逐渐被一种新型机器学习框架所替代,这一框架名为GATE。GATE允许大型模型主动向人类提问,以更好地理解用户的偏好,从不再依赖用户提供的提示信息。提示工程是否会消失,以及如何应对这一变化,仍有待进一步讨论和观察。
斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。
FlashAttention团队最近推出了一项名为Flash-Decoding的新方法,旨在加速大型Transformer架构的推理过程,特别是在处理长上下文LLM模型时。这项方法已经通过了64k长度的CodeLlama-34B的验证得到了PyTorch官方的认可。这个新方法的推出为深度学习领域带来了更多的创新和性能提升。
【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以在零样本设置下,对新任务实现非常好的泛化性能,但在现实应用时,往往还需要针对特定用例对模型进行微调。微调后的模型安全性如何?是否会遗忘之前接受的对齐训练吗?面向用户时是否会输出有害内容?提供LLM服务的厂商也需要考虑到,当给终端用户开放模型微调权限后,安全性是否会下降?最近,普林斯顿大学、IBM、斯坦福等机构通过redteam实验证明,只需要几个恶意样本即可大幅降低预训练模型的安全性,甚至普通用户的微调也会影响模型的安全性。不管真正的原因是什么,研究人员假设,如果能够在未来的对齐工作中巩固那些不太稳健的危害类别,可能能够进一步提高良性微调情况下的整体安全性。