首页 > 业界 > 关键词  > 阿里云最新资讯  > 正文

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

2024-11-20 16:38 · 稿源: 快科技

阿里云百炼发布Qwen2.5-Turbo模型,支持超长上下文处理

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

据悉,Qwen2.5-Turbo模型支持高达100万超长上下文,相当于100万个英文单词或150万个汉字。在多个长文本评测集中,其性能表现超越了GPT-4。

该模型可应用于多种场景,例如:长篇小说深入理解、代码助手和多篇论文阅读。它能够一次性处理10本长篇小说、150小时的演讲稿或3万行代码。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

具体来说,在1M长度的超长文本检索任务中,Qwen2.5-Turbo的准确率达到100%。在长文本评测集RULER上,其得分达到93.1分,超越GPT-4。

在LV-Eval、LongBench-Chat等更接近真实场景的长文本任务中,Qwen2.5-Turbo在大多数维度上超越了GPT-4o-mini。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

除了长文本,Qwen2.5-Turbo在短文本基准上的表现也十分出色,在大多数任务上显著超越了之前上下文长度为1M tokens的开源模型。

阿里云百炼上线Qwen2.5-Turbo模型:支持100万超长上下文

在推理速度方面,该模型利用稀疏注意力机制将注意力部分的计算量压缩了约12.5倍,将处理1M tokens上下文时的首字返回时间从4.9分钟降低到了68秒,速度提升了4.3倍。

尽管如此,长文本任务处理仍面临诸多挑战。未来,阿里云百炼将继续探索长序列人类偏好对齐,优化推理效率和研发更大、更强的长文本模型。

举报

  • 相关推荐
  • 手机也能跑的模型来了!阿里宣布开源Qwen2.5-Omni-7B

    今天,阿里云宣布通义千问Qwen2.5-Omni-7B正式开源。这是通义系列模型中首个端到端全模态大模型,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。2023年起,通义团队陆续开发覆盖0.5B、1.5B、3B、7B、14B、32B、72B、110B等参数的200多款全尺寸大模型,囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等全模态。

  • 阿里云百炼MCP服务上线:高德、无影等首批接入

    据报道,阿里云百炼平台正式推出全生命周期MCP服务,将大模型应用开发门槛降至新低。该服务实现了从资源管理到部署运维的全流程自动化,用户仅需5分钟即可快速创建连接MCP服务的智能体,让大模型技术真正转化为生产力工具。这一创新服务标志着大模型技术正从实验室走向产业化应用的新阶段。

  • AI更有感情色彩!星纪魅族宣布:深度接入阿里云全模态大模型Qwen2.5-Omni

    星纪魅族首席运营官廖清红宣布,公司将深度接入阿里云首个端到端全模态大模型Qwen2.5-Omni,这一举措将显著提升星纪魅族产品的AI情感理解能力。通过此次合作,星纪魅族能够在复杂任务中提供更智能、更自然的反馈与决策,标志着公司在AI领域的进一步发展。今年星纪魅族的新品计划还包括眼镜、AIDevice、车上的产品以及手机,并将推出车机FlymeAuto和手机Flyme的大版本更新。

  • AI日报:淘宝全平台启动AI假图治理;OpenAI官宣支持MCP协议;阿里开源全模态模型Qwen2.5-Omni

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里通义千问开源发布新一代端到端多模态模型Qwen2.5-Omni阿里云通义千问团队推出了Qwen2.5-Omni,这是一个新一代的多模态旗舰模型,旨在实现文本、图像、音频和视频的无缝处理。这项技术为视频生成领域带来了新的发展机遇,尤其是在文本到视频生成等应用场景中,展现了巨大的潜力。

  • 刚刚,OpenAI发布GPT-4.1,性能暴涨、100万上下文

    今天凌晨1点,OpenAI进行了技术直播发布了最新模型——GPT-4.1。除了GPT-4.1之外,还有GPT4.1-Mini和GPT4.1-Nano两款模型,在多模态处理、代码能力、指令遵循、成本方面实现大幅度提升。特别是支持100万token上下文,这对于金融分析、小说写作、教育等领域帮助巨大。由于GPT-4.1的发布,OpenAI宣布将会淘汰刚发布不久的GPT-4.5,其能力可见一斑。目前,如果想体验GPT-4.1而无法通过API身�

  • 1000万上下文!新开源多模态大模型,单个GPU就能运行

    今年2月初,谷歌发布的Gemini2.0Pro支持200万上下文,震惊了整个大模型领域。仅过了2个月,Meta最新开源的Llama4Scout就将上下文扩展至1000万,整整提升了5倍开启千万级时代。根据实验数据显示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等测试的数据比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

  • AI日报:阿里模型Qwen3即将来袭;GitHub开源MCP服务器;Runway发布Gen-4 Turbo

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、Qwen3即将来袭:阿里云新模型相关支持已正式合并至vLLM代码库阿里云的Qwen3模型即将发布,标志着其在AI领域的又一重要进展。新推出的AI听歌报告能够精准识别用户音乐偏好,场景

  • 为什么要使用MCP?MCP模型上下文协议能解决什么问题?

    在当今数字化时代,AI应用的开发和部署正面临着一个关键挑战:如何将AI技术与现有的服务和系统高效集成。为了解决这一难题,MCP应运生。AIbase的MCP资源网站还提供了详细的开发文档和教程,帮助开发者快速上手并深入学习MCP技术。

  • Create2025度AI开发者大会举行 文心4.5 Turbo、X1 Turbo发布

    百度在武汉举办Create2025+AI开发者大会,李彦宏强调AI应用创造价值的关键。他指出当前AI模型迭代加速,MCP成为行业标准,但开发者担忧应用快速过时。李彦宏建议开发者选对场景和基础模型,并学习调优方法。百度发布文心大模型4.5 Turbo和X1 Turbo,价格大幅下降80%和50%,性能提升且成本更低,为开发者提供更实惠高效的工具选择。

  • Create2025度AI开发者大会上热搜 4.5Turbo、X1Turbo发布

    百度在武汉举办2025AI开发者大会,正式发布文心大模型4.5Turbo和X1Turbo两大版本。4.5Turbo在多模态处理能力上实现突破,支持文本、图像、语音跨模态交互,调用成本较前代直降80%,仅为竞品价格的40%。X1Turbo强化深度推理能力,价格较上代降50%,成本仅占竞品的25%。两款产品围绕"多模态、强推理、低成本"三大特性展开,其中4.5Turbo提升逻辑推理与代码生成效率,X1Turbo支持多步骤复杂推理和跨工具调用能力。百度此次定价策略极具竞争力,4.5Turbo成本降至行业主流水平的1/5,瞄准中小企业及个人开发者;X1Turbo虽定位高端,但成本仅为竞品1/4,主要面向科研机构、金融分析等高要求领域。