首页 > 业界 > 关键词  > 大模型最新资讯  > 正文

LLM-Shearing大模型剪枝法:用5%的成本拿下SOTA,比从头开始预训练更划算

2023-10-12 14:29 · 稿源:站长之家

要点:

1. 陈丹琦团队开发了LLM-Shearing大模型剪枝法,可以将大型预训练模型剪枝至低成本,但高性能水平。

2. 剪枝方法将模型剪枝看作一种约束优化问题,同时学习剪枝掩码矩阵以最大化性能为目标。

3. 这种方法提供了一种有效的方式,可用于将剪枝后的模型继续预训练,最终超越从头开始预训练的模型。

站长之家(ChinaZ.com)10月12日 消息:陈丹琦团队近期发布了一项重要的研究成果,他们开发了一种名为LLM-Shearing的大模型剪枝法。这项技术允许将庞大的预训练模型剪枝至仅需3%的计算量和5%的成本,同时保持着SOTA(State-of-the-Art)水平的性能。

这一成果的基础是以羊驼LLaMA2.7B为起点,通过有针对性的结构化剪枝,得到了1.3B和3B规模的Sheared-LLama模型。在各种下游任务评估中,这些剪枝后的模型表现出色,超越了之前的同等规模模型。

image.png

论文地址:

https://arxiv.org/abs/2310.06694

Hugging Face:

https://huggingface.co/princeton-nlp

项目主页:

https://xiamengzhou.github.io/sheared-llama/

该研究的首席作者夏梦舟指出,与从头开始预训练相比,这种剪枝方法在成本和性能方面更为划算。

研究团队还在论文中提供了剪枝后模型的示例输出,表明即使规模只有1.3B和2.7B,这些模型仍然能够生成连贯且内容丰富的回复。此外,相同规模下的不同版本模型在某些任务上还表现出更清晰的结构。

image.png

这一研究的重要性在于,虽然目前仅使用Llama2.7B模型进行了剪枝实验,但这种方法可扩展到其他模型架构和规模。此外,剪枝后的模型还可以进一步预训练,从而在一定程度上恢复因剪枝而导致的性能损失。

研究团队还解决了一个关键问题,即剪枝可能导致模型在不同数据集上性能下降的问题。他们提出了动态批量加载(Dynamic Batch Loading)的方法,通过根据模型在不同领域数据上的损失下降速率,动态调整每个领域的数据比例,从而提高数据使用效率。

实验证明,虽然剪枝模型最初表现较差,但通过继续预训练,最终可以超越与之规模相同但从头开始预训练的模型。

总而言之,这项研究的关键在于提供了一种高效的方式,可以将庞大的预训练模型剪枝至较低成本,同时保持高性能。这有望在大规模深度学习模型的研究和应用中产生广泛的影响。

举报

  • 相关推荐
  • 超越OpenAI、拿下全球双料第一,“AI吴彦祖”背后大模型SOTA了!

    超越OpenAI! 国产大模型突袭,AI语音生成天花板被重新定义了。 MiniMax最新发布Speech-02,同时拿下Artificial Analysis Speech Arena和Hugging Face TTS Arena两项全球权威语音基准测评第一!

  • 爱,连接你我 | AI与世界同步 飞利浦助听器HearLink50平台新品震撼上市

    飞利浦助听器HearLink50+平台新品发布,搭载第三代AI助听芯片和智能动态辨识技术SoundGuide,能实时捕捉用户头部运动和环境变化,精准识别用户想听的声音。该产品采用AI智能降噪3.0技术,覆盖数千万种声音场景,信噪比提升12分贝,提供更清晰的听觉体验。同时配备极速充电功能,15分钟充电可畅听4小时。产品还具备耳鸣掩蔽、远程验配等功能,IP68防尘防水,支持中文语音提示。飞利浦推出全国一口价政策,有效期至2025年8月31日,帮助弱听人士回归多彩有声世界。

  • 低成本、高速度、1080p高清 可灵2.1打造视频大模型新标杆

    快手可灵AI推出全新2.1系列视频生成模型,包含标准版(720p)和高品质版(1080p),主打高性价比与高效生成。大师版则提供更卓越的运动表现和语义响应,分辨率提升至1080p。新模型在成本控制方面优势明显,5秒视频生成仅需20-35灵感值,速度不到1分钟,处于行业领先水平。模型质量全面提升,动态细节更丰富、物理模拟更真实、提示词响应更精准。目前可灵AI全球用户突破2200万,累计生成超1.68亿视频,商业化进程加速,2025年Q1营收超1.5亿元。新系列将满足从短视频创作到专业影视制作的多场景需求。

  • 中文大模型忠实性幻觉评测:豆包大模型幻觉率仅4%,位居全球收之首

    SuperCLUE+最新评测显示,豆包大模型1.5Pro以仅4%的幻觉率和96%的准确率位居全球榜首,超越DeepSeek、Gemini-2.5-pro和GPT-4o等主流模型。该模型在文本摘要、多文本问答等关键任务中表现优异,尤其在中文理解任务上国内领先。基于MoE架构设计,其综合性能超过多款超大规模预训练模型,推理成本显著降低。截至2025年3月,豆包大模型日均调用量达12.7万亿tokens,是一年前的106倍。IDC报告指出火山引擎以46.4%市场份额领跑中国公有云大模型市场。据悉,6月11日将发布豆包大模型最新升级进展。

  • 一场文心大模型的「AI马拉松」

    对于百度而言,既要保持长期主义的战略定力,也要在技术路径上灵活应变,这种「变与不变」的平衡或许正是其在这轮科技革命中的制胜之道。 2025年,模型能力的重要性依然无需多言。 从预训练的角度来看,虽然连 OpenAI 前首席科学家 Ilya Sutskever 都说,预训练数据即将用尽,但海量的图像、视频等多模态数据资源依然有待挖掘。 从后训练的角度来看,强化学习新范式正�

  • 理想汽车OTA7.4正式推送!自研MindGPT-4o-preview模型首次上车

    理想汽车5月28日发布OTA 7.4版本升级,主要亮点包括:1)首次搭载自研MindGPT-4o大模型,智能助手"理想同学"升级为3D毛绒形象,新增双手交互动作,语音交互更自然生动;2)新增"小同桌"多角色对话功能,支持连续聊天和情商引导;3)升级为生活助手Agent,能自主操作车机完成复杂任务,支持支付宝小程序操作;4)新增家庭账号系统、面容识别和对话历史功能;5)影音体验优化,支持前后排独立音区;6)推出儿童节专属"小主人"模式,新增斑马百科应用;7)新增超充站降锁、冰箱定时开关等实用功能;8)优化L6车型CDC悬架系统,提升操控性。

  • 大模型时代:内容产业智变新浪潮

    腾讯研究院院长司晓在第15届中国(深圳)国际文化产业博览交易会上发表演讲,指出大模型技术正推动文化内容生产从"专业主导"转向"全民共创"。大模型已从工具赋能升级为生态重构,显著提升内容生产效率和质量,如腾讯混元模型支持实时图像生成与调整。AI技术加速影视、音乐等内容创作,如上海民族乐团与腾讯音乐合作的AI音乐会《零·壹 | 中国色》。同时,大模型在理解与交互能力上取得突破,如GPT-4o能准确识别物体细节。腾讯通过"探元计划"推动科技与文化融合,如"云游敦煌"等项目。未来,AI将实现"智力即服务",大幅提升创作效率和质量,推动文化内容产业进入"千人千面"新时代。

  • 东风汽车奕派007接入豆包大模型

    东风汽车旗下电动品牌奕派推出2025款奕派007,全面接入豆包大模型,实现三大智能化创新:1)毫秒级响应的全场景语音交互,支持10个高频指令同时处理;2)"情绪管家"模式可主动提供娱乐内容调节驾乘情绪;3)结合AIGC技术实现旅途画面一键艺术化创作分享。该车型通过智能决策能力和个性化服务重构人车关系,定位为Z世代"AI搭子"。未来将与火山引擎合作探索更多智能出行场景,构建差异化竞争力。

  • GPTBots 迎来增强版 DeepSeek-R1-0528 模型

    GPTBots.ai平台宣布集成深度求索(DeepSeek)最新开源模型DeepSeek-R1-0528,该模型在推理能力上媲美OpenAI和Google的顶级模型,性能显著提升:数学竞赛准确率从70%提升至87.5%,编程性能从63.5%提升至73.3%。该模型支持JSON输出与函数调用,可无缝嵌入企业工作流,同时推出轻量级版本DeepSeek-R1-0528-Qwen3-8B,仅需16GB GPU内存即可运行。此次集成将强化GPTBots为企业提供金融、医疗、教育等领域的AI解决方案能力,助力企业构建定制化AI应用。平台秉持开源理念,采用MIT许可协议,支持商业使用与定制开发。

  • 大模型都能冲清北了?首个AI高考总分评测结果出炉

    7家国产大模型参加2025年辽宁高考模拟测试,结果显示:腾讯元宝在文科考试中以667.5分夺冠,接近清北录取线;豆包、讯飞星火分别以655分和652分紧随其后,均达985高校水平。理科方面,豆包以635分领先,元宝和Kimi分别获得632.5分和629分。测试发现大模型在文科表现优于理科,尤其在语文作文和数学解题能力突出,元宝数学获得149分高分。但在理科综合科目存在短板,物理化学的解题过程和知识点推导不够完整,图像符号理解不足。相比去年,今年大模型整体能力显著提升,已从"文科一本、理科二本"水平进步到冲击顶尖高校的水平,展现了国产AI的快速发展。