11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
今年2月初,谷歌发布的Gemini2.0Pro支持200万上下文,震惊了整个大模型领域。仅过了2个月,Meta最新开源的Llama4Scout就将上下文扩展至1000万,整整提升了5倍开启千万级时代。根据实验数据显示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等测试的数据比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。
下面的两个有声书演播片段,你能分辨是真人还是AI合成的吗?实际上这两个小说片段都是AI合成的,方案来自于豆包语音模型团队。为了逼近一流真人主播的演播效果,豆包语音模型基于原有Seed-TTS框架进一步加入上下文理解,最终实现了高表现力、高自然度、高语义理解的小说演播效果。未来豆包语音模型会继续探索前沿科技与业务场景的结合,追求更极致的“听”体验。
阿里云百炼宣布,最新的Qwen2.5-Turbo模型已在平台上线,即日起所有用户可在阿里云百炼调用Qwen2.5-TurboAPI,百万tokens仅需0.3元,同时还免费为用户赠送1000万tokens额度。该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字,并且在多个长文本评测集中的性能表现超越GPT-4。不过通义千问团队也表示,长文本任务处理依然存在诸多挑战,未来将进一步探索长序列人类偏好对齐,优化推理效率以减少运算时间,并继续研发更大、更强的长文本模型。
【新智元导读】当今的LLM已经号称能够支持百万级别的上下文长度,这对于模型的能力来说,意义重大。但近日的两项独立研究表明,它们可能只是在吹牛,LLM实际上并不能理解这么长的内容。这些差异可能是由于训练任务的变化造成的。
近日,月之暗面宣布Kimi开放平台正式公测新技术——上下文缓存,该技术在API价格不变的前提下,可为开发者降低最高90%的长文本大模型使用成本,并且显著提升模型的响应速度。据了解,月之暗面是国内首家面向开发者推出上下文缓存技术的大模型公司。Kimi开放平台陆续上线了工具调用、PartialMode、上下文缓存等能力,持续帮助开发者高效打造更有想象力的AI应用。
OpenAI出手再次惊艳世界,谷歌果然坐不住了。GPT-4o掀起的一片“AGI已至”的惊呼声中,刚刚,GoogleDeepMind首席执行官哈萨比斯亲自携谷歌版《Her》登场:同样能会还有,不仅能几乎没有延迟地和人类流畅交流,通过摄像头,这个名为ProjectAstra的AI助手甚至能直接帮忙读代码谷歌还祭出了自己的硬件优势,带来一波AR和大模型的梦幻联动。有关谷歌I/O的更多细节,可以戳:https://blog.go
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放【AiBase提要:】🚀马斯克旗下xAI公司开源了3140亿参数的混合专家模型「Grok-1」及权重和网络架构。⭐OpenRouter�
零一万物发布了Yi大模型API,并启动了公测。这次邀测提供了两种模型:Yi-34B-Chat和Yi-34B-Chat-200K。Yi大模型API与OpenAIAPI完全兼容,可以平滑迁移,享受Yi大模型的超凡魅力。
只要四行代码就能让大模型窗口长度暴增,最高可增加3倍!且是“即插即用”,理论上可以适配任意大模型,目前已在Mistral和Llama2上试验成功。有了这项技术,大模型就能摇身一变,成为LongLM。SE的原作者也说,目前SE方法的确还没有做过效率方面的优化,未来计划通过引入FlashAttention机制等策略来解决这一问题。
各家大模型纷纷卷起上下文窗口,Llama-1时标配还是2k,现在不超过100k的已经不好意思出门了。然鹅一项极限测试却发现,大部分人用法都不对,没发挥出AI应有的实力。月之暗面的工程师还搞了更多轮实验,其中一个居然是……坏了,我成测试数据了。