11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
今天凌晨1点,OpenAI进行了技术直播发布了最新模型——GPT-4.1。除了GPT-4.1之外,还有GPT4.1-Mini和GPT4.1-Nano两款模型,在多模态处理、代码能力、指令遵循、成本方面实现大幅度提升。特别是支持100万token上下文,这对于金融分析、小说写作、教育等领域帮助巨大。由于GPT-4.1的发布,OpenAI宣布将会淘汰刚发布不久的GPT-4.5,其能力可见一斑。目前,如果想体验GPT-4.1而无法通过API身�
今年2月初,谷歌发布的Gemini2.0Pro支持200万上下文,震惊了整个大模型领域。仅过了2个月,Meta最新开源的Llama4Scout就将上下文扩展至1000万,整整提升了5倍开启千万级时代。根据实验数据显示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等测试的数据比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。
在当今数字化时代,AI应用的开发和部署正面临着一个关键挑战:如何将AI技术与现有的服务和系统高效集成。为了解决这一难题,MCP应运生。AIbase的MCP资源网站还提供了详细的开发文档和教程,帮助开发者快速上手并深入学习MCP技术。
在当今快速发展的AI时代,如何高效地将AI助手与各类数据系统连接起来,成为了一个亟待解决的问题。MCP协议应运生,它是由Anthropic公司提出并开源的一种开放标准协议,通过提供一个统一的开放标准,极大地简化了AI系统与数据源之间的连接,使得AI系统能够更可靠地访问所需数据,从产生更相关、更优质的响应。通过与AIbase的紧密结合,MCP协议能够更好地发挥其优势,为AI技术的发展提供更强大的动力。
下面的两个有声书演播片段,你能分辨是真人还是AI合成的吗?实际上这两个小说片段都是AI合成的,方案来自于豆包语音模型团队。为了逼近一流真人主播的演播效果,豆包语音模型基于原有Seed-TTS框架进一步加入上下文理解,最终实现了高表现力、高自然度、高语义理解的小说演播效果。未来豆包语音模型会继续探索前沿科技与业务场景的结合,追求更极致的“听”体验。
据报道,DeepSeek团队在其新发表的论文中介绍了NSA,这是一种创新的稀疏注意力机制,该机制专为与现代硬件高度协同且支持本机训练设计,旨在实现超高速的长上下文训练与推理过程。NSA通过一系列针对现代硬件特性的优化设计,不仅显著提升了推理速度有效降低了预训练成本,同时确保了模型性能的丝毫不减。NSA不仅在算法上实现了稀疏注意力的高效建模通过硬件对齐的设计,优化了内存访问和计算调度,使得模型在处理长文本时能够大幅减少计算延迟和资源消耗。
“MoE”加上“前所未有大规模投入生产环境的LightningAttention”,再加上“从框架到CUDA层面的如软件和工程重构”,会得到什么?一个追平了顶级模型能力、且把上下文长度提升到400万token级别的新模型。这显然是巨大的野心,但在如今人们都在关注大模型接下来往哪儿走的时候,非常需要这样的野心,非常需要一个或者更多个“Transformer时刻”——在一个自己相信的路线上做到极致,把看似所有人都知道的配方,最终兑现出来,展示给技术社区里的人们,让它变成某个决定性的时刻,给AI的前进再添把火。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、万物皆可一键毛茸茸!阿里通义App上线“局部风格化”功能通义App最近推出的“局部风格化”功能引发了社交平台的热潮。这项研究强调了AI电脑在任务处理、隐私保护和自适应学�
阿里云百炼宣布,最新的Qwen2.5-Turbo模型已在平台上线,即日起所有用户可在阿里云百炼调用Qwen2.5-TurboAPI,百万tokens仅需0.3元,同时还免费为用户赠送1000万tokens额度。该模型支持100万超长上下文,相当于100万个英文单词或150万个汉字,并且在多个长文本评测集中的性能表现超越GPT-4。不过通义千问团队也表示,长文本任务处理依然存在诸多挑战,未来将进一步探索长序列人类偏好对齐,优化推理效率以减少运算时间,并继续研发更大、更强的长文本模型。
【新智元导读】当今的LLM已经号称能够支持百万级别的上下文长度,这对于模型的能力来说,意义重大。但近日的两项独立研究表明,它们可能只是在吹牛,LLM实际上并不能理解这么长的内容。这些差异可能是由于训练任务的变化造成的。