11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
腾讯云
12-20
【新智元导读】在面对复杂的推理任务时,SFT往往让大模型显得力不从心。CMU等机构的华人团队提出了「批判性微调」方法,仅在50K样本上训练,就在大多数基准测试中优于使用超过200万个样本的强化学习方法。进一步的研究也可能包括将CFT与其他训练范式,如SFT和RL相结合,扩展到多模态环境,并研究其理论基础。
人工智能可能有一天会让人类变得过时——不过方式可能不是你想象的那样。与其说 AI 会变得足够优秀以至于取代人类完成任务,不如说我们可能会变得如此依赖不完美的工具,以至于我们自己的能力逐渐退化。微软和卡内基梅隆大学的研究人员发布了一项新研究,发现人类越是依赖 AI 工具来完成任务,他们的批判性思维就越少,这使得在需要时更加难以调动这些技能。研究
快科技2月11日消息,微软和卡内基梅隆大学的研究人员发布了一项新研究,指出过度依赖AI工具可能会削弱人类的批判性思维能力,降低独立解决问题的能力。研究发现,当人们越来越依赖AI工具来完成任务时,他们自身的批判性思维能力会逐渐退化,导致在需要独立思考时面临困难。研究团队调查了319名知识工作者,询问他们如何在工作中使用生成式AI工具,包括他们被要求�
针对文本到图像生成模型领域中的个性化主题驱动模型,出现了一些令人印象深刻的进展,如DreamBooth和BLIP-Diffusion。这些模型普遍存在着对微调的需求较高和参数规模庞大的限制。综合对比实验结果,DiffuseKronA在视觉质量、文本对齐性、可解释性、参数效率和模型稳定性等方面均优于LoRA-DreamBooth,为T2I生成模型的领域带来了重大进展。
【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以在零样本设置下,对新任务实现非常好的泛化性能,但在现实应用时,往往还需要针对特定用例对模型进行微调。微调后的模型安全性如何?是否会遗忘之前接受的对齐训练吗?面向用户时是否会输出有害内容?提供LLM服务的厂商也需要考虑到,当给终端用户开放模型微调权限后,安全性是否会下降?最近,普林斯顿大学、IBM、斯坦福等机构通过redteam实验证明,只需要几个恶意样本即可大幅降低预训练模型的安全性,甚至普通用户的微调也会影响模型的安全性。不管真正的原因是什么,研究人员假设,如果能够在未来的对齐工作中巩固那些不太稳健的危害类别,可能能够进一步提高良性微调情况下的整体安全性。
OpenAI宣布ChatGPT用户现在可以浏览互联网,不再受限于2021年9月之前的数据。这一更新允许用户访问最新信息,拓展了ChatGPT的应用领域。该模型性能出色,免费下载无限制。
随着GPT-4的发布,多模态大模型成为热点。业界常将视觉编码器与语言模型集成构建MLLM。模型设计和训练技巧仍需进一步优化,以平衡不同能力之间的权衡。
大型预训练语言模型,如GPT-3,具有出色的能力,可以理解和回答人类提出的问题,协助编码工作等。它们常常生成与人类偏好不同的结果。这是通过允许LLM评估和改进其自身输出来实现的,最终产生更协调和安全的AI生成响应。
年仅25岁的哈佛大学毕业生NadyaOkamoto对于使用人工智能来完成学校作业表示担忧。她认为这样做可能会阻碍学生的批判性思维能力,但也承认使用AI可以节省时间,让学生有更多时间做自己喜欢的事情。她同时指出,AI可能会对教育的坚韧性产生负面影响,但也许在未来的世界中,这并不是必要的。
这项研究为个性化视频编辑领域带来了新的可能性,使得生成个性化内容变得更加简便和高效。随着扩散模型的发展,基于输入文本生成高质量的图片和视频已经成为现实,但是仅使用文本生成视觉内容的可控性有限。无论是专业编辑人员还是创意爱好者,都能够通过Make-A-Protagonist打造出独特精彩的视觉作品。