首页 > 业界 > 关键词  > 正文

文心3.5到4.0:版本前进0.5背后 推理成本或暴增10倍不止

2023-10-14 22:41 · 稿源: 快科技

十月一节后第一天就有消息人士透露,百度正在加紧训练文心大模型4.0,或将在10月17日举行的百度世界大会上发布。

此前5月,文心大模型3.5版本已经发布,不到半年,4.0上线在即,而且放在了百度世界大会这样的重头戏上,外界期待值直接拉满。

据悉,从文心3.5到4.0,版本数字前进0.5”背后,推理成本、模型参数量都会迎来暴增,推理成本综合下来高5倍打底,甚至8倍、10倍都有可能,而模型参数量更是超过万亿,也正是万亿的参数量解释了文心大模型4.0推理成本增高的背后原因。

先解释下什么是推理成本?其实就是用户单次使用耗费的算力成本,这里算力不仅包括硬件投入,也折算了运维成本。正所谓有输入”才有输出”,推理成本即模型思考”并输出”一次所需的成本。

这个推理成本主要受三个因素影响:

1、模型的网络结构和参数规模,大模型神经网络结构越复杂成本越高,参数规模越大,需要的计算量越大,计算成本就越高。

这就好比人大脑中的神经元网络,神经元网络越复杂,需要学习和思考的东西就越多,也就需要更高的成本。

从爆出来的消息看,文心4.0基于飞桨平台在万卡集群训练出来,4.0参数规模将大于市面上所有已经公开发布参数规模的大语言模型,也有可能突破万亿级别。

根据之前行业媒体的测算,如果要在10天内训练1000亿参数规模、1PB训练数据集,大约需要10830个英伟达A100 GPU。

按照每个A100 GPU的成本约为10000美元,那么10830个GPU的总成本约为:10830*$10000=$108300000

为什么说通用大模型是大厂的游戏,原因就在这里,光门槛就超10亿美元。

2、模型的推理部署,如单机还是并行推理、量化、部署方式等。

优化成本”本身也是要付出代价的。这就好比我们用不同的方式来解决问题。如果一个方法需要更多的时间和精力,那么思考”成本就会更高。

如果一个模型在推理时需要大量的计算和存储资源,就像一个大人需要花费更多的时间和精力来解决问题一样,那么推理成本就会很高。

而如果采用一些技术手段,比如将推理任务并行处理或者使用量化技术来减少计算和存储需求,就相当于小孩子用更简单的方式来解决问题,可以节省推理成本。当然,这些技术手段本身也是成本。

3、芯片和集群,包括芯片型号、规模以及集群架构等。

芯片买来就能直接用吗?完全不可能!后面还需要一系列的重成本

这就好比不同的大脑的配置。如果一个芯片或集群的效率更高、速度更快,那么就可以更快地完成推理任务,从而降低推理成本。如果一个芯片或集群的性能不好、速度很慢,这就像一个学习不好的孩子需要花费更多的时间和精力来思考问题一样,推理成本就会很高。

单个芯片可以比喻成一块能发电的砖,如何通过合理配置,最终达到参数规模、推理部署方式以及使用的芯片和集群的性能最大化?这听着都不是一个简单的问题。

随着大语言模型的不断升级迭代,参数量突破万亿、模型能力越来越强、用户使用量激增,推理成本都会成倍增加。

文心大模型4.0增加的更是极致体验

其实自5月发布文心3.5,百度一直通过各种技术优化推理成本,据悉,目前3.5版本推理成本较5月刚发布时,已经下降到原来的几十分之一。

而即将发布的文心大模型4.0版本的推理成本也远低于今年5月的3.5版本,这也是百度积极探索技术手段优化推理性能、降低推理成本的结果。而文心大模型4.0作为单一模型,将是国内首个万卡集群训练的稠密参数大语言模型。

万卡集群背后,如何更好的发挥性能呢?

对于百度来讲,恰好因为过去十年如一日的技术投入,正式因为文心与飞桨的联合优化,才能高效地基于万卡集群训练起这么万亿规模的模型。

10月17日,文心大模型4.0将正式发布,并开启邀请测试。这是迄今为止最强大的文心大模型,它实现了基础模型的全面升级,理解、生成、逻辑和记忆四大能力相辅相成,全面进步。可以说文心大模型的全面升级将为用户带来更极致的产品体验。

通用大模型走向付费是大势所趋

根据海外最新研究《The Economics of Large Language Models》,可以有这样来估计:

每个token(1000 token约等于750个单词)的训练成本通常约为6N,而推理成本约为2N,其中N 是LLM(大语言模型)的参数数量,也就是说推理成本大约相当于训练成本的三分之一。但随着模型上线部署后使用量的增加,推理成本可能远超训练成本。

有媒体估算过,使用云计算服务(以AWS为例)调用ChatGPT的能力,每处理一个输入长度为50字、输出长度为1000字的问题,大约需要消耗0.00014611美元的云计算资源。即用1美元可以向ChatGPT提问约6843个问题。

此外,据华尔街日报早前爆料:微软用户量高达150万的AI编程工具GitHub Copilot,平均每个月在每个用户身上都要倒贴20美元,最高能达80美元。也就是说,微软自做出Copilot以来,光是一个月在它上面亏损就高达3000万美元,一年下来亏损直接过亿。要知道,Copilot也不是能白嫖的,会员每月还得交10美元使用费”

而就拿OpenAI来看,它也早已走上了大模型付费之路。对于C端用户,提供订阅模式的ChatGPT Plus,每月收费20美元(合人民币140元),可访问基于GPT-4的完全不同的服务,速度更快,访问更可靠。就算访问 ChatGPT,也可以优先使用新功能和改进。

而对于企业用户,就在今年8月28日,OpenAI官宣推出专注于为大企业服务的ChatGPT Enterprise”。企业版ChatGPT直接对接GPT-4,提供无限制访问、高级数据分析功能、定制服务等服务,并支持处理更长文本输入的长上下文窗口。

并且企业版在保证企业的数据隐私和安全的背景下,还为企业提供全方位的生成式AI功能。此外,除了目前适合大型企业的版本外,OpenAI还将很快推出适用于小微企业、团队的ChatGPT Business产品,服务于所有规模和类型的组织。

可以看出大模型收费国外已经开始探索不同路径,而确保模型的可持续发展也正需要资金来支持持续的研发、改进和维护。这就需要一定的收费机制来不断优化和迭代模型,提高模型的准确性和效率,结合用户需求和反馈,不断改进和优化模型,提高用户体验。

高昂成本倒逼下,通用大模型走向付费是大势所趋。

举报

  • 相关推荐
  • ChatGPT语音模式增添新功能:可调语速 支持0.5到2.0倍速

    OpenAI为其ChatGPT网页应用的语音模式推出新功能,加入语音速度”调节与自定义指令前缀”,同时配合此前升级的模型选择器,进一步提升用户体验。 新增的语音速度”选项让用户可通过滑块自由调整ChatGPT的语速,范围从0.5倍速到2.0倍速,不过该功能目前仍处于隐藏状态,尚未正式开放。 自定义指令前缀”功能则允许语音模式记住用户的特定要求,避免重复输入。系统明确�

  • 399元!小米智能摄像机4变焦版开启众筹:支持9倍混合变焦

    小米智能摄像机4变焦版今天正式开启众筹,众筹价399元,建议零售价469元。 这是小米首款室内变焦相机,配备800万像素超广角和500万像素超长焦镜头,支持9倍混合变焦(3倍光学变焦),看得远、细节清。 支持4K超清画质,搭配ISP图像传感器与超微光全彩技术,昏暗环境也能保持彩色画面,夜间无光则启用10颗940nm红外补光灯,10米夜视距离且无红曝,不干扰睡眠。

  • 《歌手2025》背后,伊利伏击蒙牛

    全网喧哗。 当《歌手2025》在陈楚生拿下歌王之后成功掀起舆论风暴,这档跌宕起伏的“年度大戏”终于落下帷幕。 相比去年石破天惊的直播One Take改造音综掀起全民浪潮,《歌手2025》依旧在相同模式之下以更残酷的赛制、每期都有淘汰让话题度拉满,“爆爆爆”背后是观众们各种情绪的叠加,而“做局”这一表达贯穿始终,无论是上场顺序、PK对象、歌曲选择、编曲反馈,�

  • 中大型企业用工新方案:可覆盖核心业务岗位,尘锋AI员工助力工作效率10倍提升!引领企业业务增长新范式!

    文章介绍了尘锋AI员工如何帮助200人以上规模企业解决用工成本高、服务效率低等问题。该AI系统融合DeepSeek、文心一言等大模型能力,结合30+行业经验,可覆盖售前接待、销售报价等核心岗位,实现1个AI员工替代10个人工,提升线索利用率70%、售后人效50%。通过多Agent体系控制模型确保业务准确性,采用大模型+小模型动态选择机制平衡成本与效能。目前已在医疗、教育等行业应用,未来将推动"人+AI"用工模式,赋能企业营销-销售-服务全流程,提升获客效率和服务质量。

  • 告别天价账单!2025最全AI模型计费指南:3步精准预算,省下70%成本

    2025年AI开发者成本报告显示,83%的团队因API账单计算不清导致预算超支,45%的企业曾因"token黑洞"砍掉创新项目。不同AI模型价格差异巨大:GPT-5输入价1.25美元/百万tokens,而Claude Opus输出价高达75美元/百万tokens。报告揭示三大价格陷阱:1)计费单位混乱;2)输入输出双收费;3)版本价差显著。AIbase推出免费费用计算器,可跨厂商对比模型成本,实测某企业通过优化模型组合将月账单从2000美元降至800美元。报告建议:简单任务选Claude Instant,平衡性能选GPT-4o,高精度场景用Claude Opus。成本透明化正成为AI落地的关键竞争力。

  • 雷军发起小米YU7版本更名投票 称小米YU7标准版绝非丐版

    今晚,小米创办人雷军在社交平台发文,针对小米YU7标准版被不少人误认为是入门版或者丐版的情况作出回应。雷军强调,小米YU7标准版实力强劲,绝非大家所误解的那样,其续航高达835公里,还配备了700TOPS算力的Thor芯片和激光雷达等,配置丝毫不输于竞品的Pro和Max版。 为进一步了解大众看法,雷军还发起了投票,询问网友是否要将小米YU7标准版改名为Pro或者Max。从目前的�

  • iQOO Pad5全版本官宣优惠200元 2299元起

    今日,iQOO手机官微宣布,iQOO Pad5全版本优惠200元,起售价2299元。 8GB 128GB 2299元、8GB 256GB 2599元、12GB 256GB 2899元、16GB 512GB 3299元. 同时,限时赠送价值199元双面夹,学生额外加赠价值399元手写笔,活动将持续至8月31日。 据了解,iQOO Pad5于今年5月发布,配备12.1英寸2.7K分辨率屏幕,支持144Hz刷新率,最高900尼特屏幕亮度。

  • 昇腾助力中科大团队实现MoE 稀疏大模型并行推理提速超30%

    中国科学技术大学张燕咏团队在昇腾算力支持下,成功研发出基于专家选择分布预测的专家负载均衡和all2all通信均衡框架。该框架通过“三步走”策略,有效解决了MoE稀疏大模型推理中的专家负载不均和通信开销大两大难题,显著提升推理性能。实验显示,该方案在多项指标上较主流方案提升超30%,为昇腾技术优化MoE模型推理提供了宝贵借鉴,将加速其在各领域的落地应用。

  • 豆包1.5轻量版 vs Gemini 2.5闪存版:生成5000字深度文章,哪个模型更合适?

    AIbase选型工具通过多维度数据对比,帮助用户精准选择AI模型。文章以豆包和Gemini为例,展示平台如何解决模型选型痛点:自动生成对比报告,评估关键指标如术语准确性、本土案例适配度等。实际案例显示,使用该工具后内容团队效率提升40%,编辑成本下降65%。核心价值在于用数据驱动决策,规避局部优势导致的全局误判,实现场景化精准匹配。

  • 旗舰影像规格!REDMI Note 15 Pro+搭载光影猎人800主摄+2.5倍长焦

    REDMI Note 15 Pro 今天揭晓了影像规格,整体看齐高端旗舰,搭载光影猎人800主摄,搭配搭配2.5X黄金长焦。 实现三摄无损五焦段,满足全场景拍摄需求。

今日大家都在搜的词: