首页 > 业界 > 关键词  > 大模型最新资讯  > 正文

清华大学提出全新加速训练大模型方法SoT

2023-11-24 09:25 · 稿源:站长之家

要点:

  • 研究人员提出了一种名为“Skeleton-of-Thought(SoT)”的创新方法,旨在加速大型语言模型(LLMs)的生成速度,以解决其处理速度较慢的问题。

  • 与传统方法不同,SoT不对LLMs进行复杂的修改,而是将其视为黑匣子,专注于优化输出内容的组织,通过引入独特的两阶段过程来提高响应速度。

  • 通过对12个不同领域的模型进行测试,使用Vicuna-80数据集,研究团队观察到SoT在八个模型上实现了1.13x到2.39x的速度提升,而不牺牲答案质量。

站长之家(ChinaZ.com)11月24日 消息:近日,微软研究和清华大学的研究人员共同提出了一种名为“Skeleton-of-Thought(SoT)”的全新人工智能方法,旨在解决大型语言模型(LLMs)生成速度较慢的问题。

尽管像GPT-4和LLaMA等LLMs在技术领域产生了深远影响,但其处理速度的不足一直是一个制约因素,特别是在对延迟敏感的应用中,如聊天机器人、协同驾驶和工业控制器。SoT方法与传统的性能提升方法不同,它不对LLMs进行复杂的修改,而是将其视为黑匣子,并侧重于优化输出内容的组织结构。

image.png

项目地址:https://github.com/imagination-research/sot/

SoT引入了一个独特的两阶段过程,首先引导LLM构建答案的骨架,然后在第二阶段使LLM同时扩展骨架中的多个要点。这一方法不仅提高了LLMs的响应速度,还在不需要对模型架构进行复杂调整的情况下实现了这一目标。

为了评估SoT的有效性,研究团队对12个不同领域的模型进行了广泛测试,使用了Vicuna-80数据集,其中包含了来自编码、数学、写作和角色扮演等各个领域的问题。

通过使用FastChat和LLMZoo的度量标准,研究团队观察到SoT在八个模型上实现了1.13x到2.39x的速度提升,而且这些提升并没有牺牲答案质量。这表明SoT不仅可以显著提高响应速度,还能够在各种问题类别中保持或提升答案质量。

因此,SoT方法为解决LLMs速度较慢的问题提供了一种有前景的解决方案。研究团队的创新方法将LLMs视为黑匣子,并专注于数据级别的效率优化,为加速内容生成提供了新的视角。通过引导LLMs构建答案的骨架,然后进行并行扩展,SoT有效地提高了响应速度,为人工智能领域的动态思维过程开辟了新的探索方向,鼓励向更高效、更多才多艺的语言模型发展。

举报

  • 相关推荐
  • “奥迪助手”来了!全新AUDI车型接入豆包大模型

    2025年4月24日上海车展期间,上汽奥迪发布全新A5L Sportback和首款量产车型E5 Sportback。同时推出与火山引擎合作开发的"奥迪助手"智能交互系统,基于豆包大模型实现自然对话体验。该系统将搭载于两款新车,并同步部署在车载端和手机APP端,支持跨设备对话记录同步。火山引擎为系统提供大模型技术支持,实现语音指令控制、车辆功能讲解等智能服务,并整合抖音、汽水音乐等内容生态。上汽奥迪表示,该合作将助力品牌打造更智能、个性化的产品矩阵。

  • 何小鹏“剧透”:小鹏训练的一个物理大模型 是国内车企“独一份”

    快科技4月14日消息,今日早间,小鹏汽车创始人何小鹏在社交平台发帖称:作为最早把「智能化」作为核心的车企,小鹏的本质是「AI汽车公司」,我认为AI 最大的价值在于改变物理世界,而不仅是数字世界,我们要做一家面向全球的AI汽车公司,我更想通过 AI 来改变物理世界,这是很有意义的,但难度也更大。小鹏坚持全栈自研,去年率先在自动驾驶领域引入强化学习、模型

  • 合合信息发布“大模型加速器 2.0”,助力大模型跨越“幻觉”障碍

    近日,上海合合信息科技股份有限公司(简称“合合信息”)TextIn“大模型加速器 2.0”版本正式上线,凭借其多维度升级,为降低大模型“幻觉”风险、推动大模型精准应用提供了强大助力。训练数据是影响大模型“认知能力”的关键,合合信息“大模型加速器 2.0”基于领先的智能文档处理技术,从数据源头入手,对复杂文档的版式、布局和元素进行精准解析及结构化处理,

  • 字节AI加速文生图技术新突破,GOOG/微美息引领开源大模型释放科技势能

    字节跳动发布豆包1.5深度思考模型,升级文生图能力。该模型在专业领域和通用任务中表现突出,采用MoE架构,总参数量200B,激活参数20B,推理成本优势显著。同时,其图像生成模型Seedream 3.0性能追平GPT-4o等顶尖模型。全球AI产业加速发展,开源模型降低技术门槛,推动商业化落地。微美全息等企业构建开放AI生态,DeepSeek等公司通过开源策略促进技术普惠。行业迎来"开源AI+"新阶段,企业需把握机遇应对挑战。

  • DeepSeek领航大模型普惠化浪潮,xAI/微美加速开源AI布局打造新格局

    DeepSeek 作为当前最受关注的大模型之一,凭借其技术创新正在加速 AI 普惠化进程。根据机构新报告显示,DeepSeek已经成为全球增长最快的AI工具,其每月新增网站访问量已经超过OpenAI的ChatGPT。DeepSeek市场份额全球第三目前,DeepSeek市场份额6.58%,仅次于ChatGPT和Canva。DeepSeek是继ChatGPT之后的又一现象级AI产品,它的市场份额从2.34%快速增长至6.58%,展现出强劲的增长态势。全球著名�

  • 可灵AI发布全新2.0模型:上线多模态视频编辑功能

    快科技4月16日消息,据报道,可灵AI在北京举行灵感成真”2.0模型发布会,正式发布可灵2.0视频生成模型及可图2.0图像生成模型。据介绍,可灵2.0模型在动态质量、语义响应、画面美学等维度保持领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。3月27日,全球AI基准测试机构Artificial Analysis发布了最新的全球视频生成大模型榜单,快手可灵1.6pro(高品质模

  • 能理解海豚声音!谷歌开发全新AI模型DolphinGemma

    快科技4月15日消息,谷歌公布了一款名为DolphinGemma”的大型语言模型,旨在帮助科学家理解海豚的声音,并生成类似海豚的声音序列。研究人员预计在未来几个月内测试DolphinGemma及其配套的Cetacean Hearing Augmentation Telemetry(CHAT)发声系统,以探索是否能够翻译并模仿海豚的声音,进而实现与海豚的某种对话”。海豚是地球上最聪明且最善于沟通的动物之一,其社交互动极其复杂�

  • 酒仙桥论坛 | 大模型 “燃料荒” 如何破?可信数据打造智能时代底座

    · 首届酒仙桥论坛, 6 天 11 场分论坛“AI 马拉松”持续热跑中,聚焦人工智能“产业创新应用、生态发展和数智未来”,政、产、学、研多方力量共议AI黄金发展期的机遇与挑战,搭建务实对话桥梁,加速科技创新和产业创新融合。4月17日上午,酒仙桥论坛可信数据服务专场顺利召开。在这场以“可信数据服务”为焦点的分论坛上,产学研专家从行业洞察与业务实践出发,围�

  • 长安马自达EZ-60球首秀,接入豆包大模型

    4月23日,长安马自达EZ-60在2025上海国际车展全球首发。作为品牌新能源战略转型产品,该车在美学设计、AI智能座舱、电感驾控及主被动安全性能等方面实现突破。最大亮点是全面接入豆包大模型,用户可通过语音指令实现复杂操作、互联网信息问答及短视频搜索等功能,打造"人-车-环境"跨模态交互体验。专属AI助手支持超700项功能语音调用,实现"所说即所得"的智能交互。长安马自达与火山引擎达成深度合作,将持续推进大模型在智能座舱领域的创新应用。

  • 秒杀同行!Kimi开源全新音频基础模型,横扫十多项基准测试,总体性能第一

    Kimi-Audio是一款开源的通用音频基础模型,在语音识别、音频理解、音频转文本、语音对话等任务中表现优异。该模型采用集成式架构设计,包含音频分词器、音频大模型和音频去分词器三大核心组件,支持多模态输入处理。在十余项音频基准测试中,Kimi-Audio均取得领先性能,如LibriSpeech ASR测试WER仅1.28%,VocalSound测试达94.85%。模型使用1300万小时多语言音频数据进行预训练,并构建了自动处理流水线生成高质量训练数据。评估结果显示,Kimi-Audio在语音识别、音乐理解、语音情感分析等任务上全面超越同类模型,在OpenAudioBench和VoiceBench对话测试中也表现最佳。目前模型代码、检查点和评估工具包已在GitHub开源。