今日,百度在武汉举办的Create2025AI开发者大会上,创始人李彦宏以“模型的世界,应用的天下”为主题发表近60分钟演讲,正式发布文心大模型4.5Turbo与X1Turbo版本,并披露DeepSeek模型在百度生态中的落地进展与现存挑战。
李彦宏透露,百度旗下文小言、百度搜索、百度地图等核心产品已接入DeepSeek满血版模型,在智能客服、搜索增强等场景实现效率提升。但他同时坦言,DeepSeek目前仍存在技术局限:“该模型仅支持文本处理,无法完成图片、音频、视频的多模态内容生成,而百度智能云超六成企业客户对多模态能力有明确需求。”他以电商直播场景为例指出,DeepSeek因幻觉率偏高(即生成错误信息),在金融、医疗等高风险领域难以直接应用,“若在直播中错误推送‘买一送十’优惠,商家将面临不可控的损失”。此外,其响应速度较慢、调用成本偏高的问题也限制了规模化落地——当前中国市场多数大模型API调用成本低于DeepSeek满血版,且响应速度更快。
针对上述痛点,百度此次发布的文心大模型双版本提出三大升级方向:多模态、强推理、低成本。李彦宏强调,多模态已成为下一代AI模型的“入场券”,“纯文本模型的市场份额将加速萎缩,企业需要能同时处理图文、音视频的通用型模型”。性能方面,文心4.5Turbo每百万token输入价格降至0.8元,输出价格3.2元,较前代版本推理速度提升2倍,成本下降80%;X1Turbo版本输入价格1元、输出4元,在性能提升的同时,价格再压缩50%,且支持中英双语、法律医疗等垂直领域推理优化。
“成本是AI应用爆发的核心掣肘。”李彦宏直言,当前开发者构建AI应用的最大障碍是算力成本高昂,而技术创新的本质往往源于成本结构的突破。他以自动驾驶为例指出,2015年激光雷达单价超10万美元,如今已降至千元级,直接推动L4级技术普及。文心大模型此次降价,旨在降低企业部署门槛,“让中小企业用得起大模型,让创业者敢于试错,最终催生千行百业的AI原生应用”。
据百度技术团队透露,文心4.5Turbo与X1Turbo已同步开放公有云及私有化部署,支持按需调用与定制化训练。市场分析认为,百度通过技术迭代与成本重构,试图在模型能力与商业化落地间寻找平衡点,而多模态能力与价格优势或将成为其争夺企业客户的关键筹码。