11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
ScalingLaw又能续命了?如何通过语言智能体的高级规划来Scaling推理时计算?答案就是——使用LLM作为世界模型。使用GPT-4o来预测网站上操作的结果,可以提供强大的性能,同时还能提高安全性和效率。其他还有多模态,基础、规划与推理,合成数据和智能体安全。
就连「量化」也不管用,scalinglaw真的要终结了吗?一提scalinglaw,人们重点关注的是参数规模、数据量等因素,却忽视了「精度」这一关键变量。哈佛斯坦福MIT等机构研究人员竟发现,低精度训练会降低模型的「有效参数量」!对此,他们提出了「精度感知」scalinglaw。他的研究旨在通过对简单建模变化的深入实证调查来改进LLM。
Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是「越大越好」是找出Scaling的对象究竟应该是什么。SSI在用全新方法扩展预训练。如果GPT的发展没有加速,是不是就意味着末日论者错了——AI不会进入所谓的递归自我改进循环,在这个循环中,AI会一次又一次地找出如何制造下一个更好版本的自己?对此,MarcAndreessen认为,这种明显的平台期意味着这样的恐惧目前看
半年两次大融资后,这家具身智能黑马再次获得融资!作为柏睿资本首次投资的具身智能企业,千寻智能不仅拥有出身自伯克利系联创,在技术、硬件、商业化上,也让人极有信心。我们意外发现,具身智能领域的明星初创公司千寻智能,悄悄完成了工商变更。具身智能这盘大棋,接下来就看千寻智能如何交卷了。
OpenAIo1的发布,再次给AI领域带来了一场地震。o1能像人类一样「思考」复杂问题,拥有优秀的通用推理能力。从SambaNova的RDU开始,人工智能领域可能正在翻开全新的一页。
OpenAI的新模型o1,可谓是开启了ScalingLaw的新篇章——随着更多的强化学习和更多的思考时间,o1在逻辑推理能力上已经达到了目前天花板级别。尤其是在北大给出的一项评测中,o1-mini模型的跑分比o1-preview还要高:这就展示一种新的思路和可能性——小模型专门加强推理能力,放弃在参数中存储大量世界知识。我们希望通过这个专栏,让更多的人了解CPU在AI推理加速,甚至是整个A
《黑神话·悟空》的火爆,带火的不仅是3D游戏本身有背后暗潮汹涌的AI3D生成技术。外界对3D大模型赛道的关注度都稍逊于语言模型和视频模型。3DScalingLaw或将带来的突破性进展,似乎已经预示了人工智能领域下一个焦点的方向。
最近的公司会议上,奥特曼向全体员工承认,明年OpenAI或将摆脱非营利组织结构。o1的问世,直接诞生了新的ScalingLaw,更是在医疗性能上表现出色。但毫无疑问的是,OpenAI的这一举动,势必会引发关于它对AI的治理以及偏离AGI使命的质疑。
又一款国产AI神器吸引了众网友和圈内研究人员的关注!它就是全新的图像和视频生成控制工具——ControlNeXt,由思谋科技创始人、港科大讲座教授贾佳亚团队开发。X平台上知名AI博主「AK」推荐从命名来看,ControlNeXt「致敬」了斯坦福大学研究团队在2023年2月提出的ControlNet,通过引入一些额外的控制信号,让预训练的图像扩散模型根据预设的条件调整和优化,实现线稿生成全彩图能做语义分割、边缘检测、人体姿势识别。未来在持续技术创新的驱动下,我们将看到更多「小弥坚」的大模型成果出现。
【新智元导读】最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的Llama3.1模型搜索100次,即可在Python代码生成任务上达到GPT-4o同等水平。为达到这个目的,可重复数字环境中的agent似乎是一个有前景的方向。