首页 > 传媒 > 关键词  > AI产品开发最新资讯  > 正文

GPU之后,NPU再成标配,手机、PC如何承载AI大模型?

2024-03-12 10:41 · 稿源: 站长之家用户

摘要:AI产品开发者需要先行一步,早一些让用户体验自己的产品,和用户建立连接,培养粘性,从而在竞争中占得先机。

2024注定是AI行业热闹非凡的一年。虽然刚刚进入3月份,但是关于AI的新闻已经多次占据了头条。就在上个月,OpenAI发布了文字生成视频的大模型Sora,其逼真的效果直接清空了在这个细分赛道苦苦耕耘的创业者。几天后,英伟达市值站上2万亿美元,成为了历史上最快实现从1万亿到2万亿美元市值的企业。正所谓“当你发现金矿,最 好的生意不是挖矿而是卖铲子”,英伟达成为了AI时代“军备竞赛”的最 大赢家。

就在大家感叹“世界上只有两种AI,一种叫OpenAI,一种叫其他AI”的时候,沉寂了许久的Anthropic放出王炸,这家由OpenAI前研究副总裁创立的公司,发布了最 新的Claude3模型,各项指标已经全面超越了GPT4。

AI行业的风起云涌,也昭示了这个行业还处在一个初级阶段。技术迭代太快,暂时领先的企业可能在一夜之间就被新技术颠覆。一些眼花缭乱的新技术,虽然已经问世,但迟迟不公开或者没有部署。比如上文提到的Sora,截至发文,还没有正式向公众开放。

生成式AI的研发和本地部署之间存在鸿沟。目前,大众使用的生成式AI产品往往是部署在云端而在本地访问(比如ChatGPT网页),但这无法满足所有需求,并且会产生一些隐患。

首先,随着大模型越来越复杂,云端和本地之间的传输在有限带宽下变得捉襟见肘,比如一架波音787飞机每秒钟产生5G的数据,如果上传到云端、计算、输出结果再返回,飞机可能已经飞出去几公里了(按照800公里/小时估算)。如果在飞机上使用AI功能但是在云端部署,这样的传输速度是无法满足要求的。

此外,一些用户敏感数据、隐私数据,是否一定要上云?显然放在本地比云端更让用户放心。

不论生成式AI多么强大,如何部署到本地始终是一个无法绕开的问题。这是行业发展的趋势,虽然目前面临一些困难。

困难在于,如何把“大模型”装入“小设备”。注意,这里的“大小”是相对而言的。云端计算的背后可能是一个占地几万平方米的计算中心,而本地部署却要让生成式AI在你的手机上跑起来。手机没有液氮冷却,也没有无穷无尽的电力,该如何部署AI呢?

异构计算,一种可能的解决方案?

高通的异构计算AI引擎(以下皆称作高通AI引擎)为行业提供了一种可行的解决方案。即通过CPU、GPU、NPU以及高通传感器中枢和内存子系统的协作,实现了AI部署和大幅度提升AI体验的目的。

图:专门的工业设计让不同计算单元更紧凑 来源:高通

不同类型的处理器所擅长的工作不同,异构计算的原理就是让“专业的人做专业的事”。CPU擅长顺序控制,适用于需要低延时的应用场景,同时,一些较小的传统模型如卷积神经网络模型(CNN),或一些特定的大语言模型(LLM),CPU处理起来也能得心应手。而GPU更擅长面向高精度格式的并行处理,比如对画质要求非常高的视频、游戏。

CPU和GPU出镜率很高,大众已经相当熟悉,而NPU相对而言更像一种新技术。NPU即神经网络处理器,专门为实现低功耗、加速AI推理而打造。当我们在持续使用AI时,需要以低功耗稳定输出高峰值性能,NPU就可以发挥最 大优势。

举个例子,当用户在玩一款重负载的游戏,此时GPU会被完全占用,或者用户在浏览多个网页,CPU又被完全占用。此时,NPU作为真正的AI专用引擎就会负担起和AI有关的计算,保证用户的AI体验流畅。

总结起来说就是,CPU和GPU是通用处理器,为灵活性而设计,易于编程,本职工作是负责操作系统、游戏和其他应用。NPU则为AI而生,AI是它的本职工作,通过牺牲部分易编程特性而实现了更高的峰值性能和能效,一路为用户的AI体验护航。

当我们把 CPU、GPU、NPU 以及高通传感器中枢和内存子系统集成在一起,就是异构计算架构。

图:高通AI引擎包括Hexagon NPU、Adreno GPU、高通Oryon或 Kryo CPU、高通传感器中枢和内存子系统 来源:高通

高通AI引擎整合了高通 Oryon 或 Kryo CPU、 Adreno GPU 、 Hexagon NPU 以及高通传感器中枢和内存子系统。Hexagon NPU作为其中的核心组件,经过多年的升级迭代,目前已达到业界领先的AI处理水平。以手机平台为例,集成高通 AI 引擎的第三代骁龙8支持行业领先的LPDDR5x内存,频率高达4.8GHz,使其能够以非常高速的芯片内存读取速度运行大型语言模型,如百川、Llama2等,从而实现非常快的token生成速率,为用户带来全新的体验。

图:NPU随着不断变化的AI用例和模型持续演进,实现高性能低功耗 来源:高通

高通对NPU的研究,并不是近几年才开始的。如果要追溯Hexagon NPU的起源,要回到2007年,也就是生成式AI走入公众视野的15年前。高通发布的首 款Hexagon DSP在骁龙平台上亮相,DSP控制和标量架构成为了高通未来多代NPU的基础。

8年后,也就是2015年,骁龙820处理器集成了首 个高通AI引擎;

2018年,高通在骁龙855中为Hexagon NPU增加了张量加速器;

2019年,高通在骁龙865上扩展了终端侧AI用例,包括AI成像、AI视频、AI语音等功能;

2020年,Hexagon NPU迎来变革型架构更新。标量、向量、张量加速器融合,这为高通未来的NPU架构奠定了基础;

2022年,第二代骁龙8中的Hexagon NPU引入了一系列重大技术提升。微切片技术提升了内存效率,功耗降低继续降低并且实现了4.35倍的AI性能提升。

2023年10月25日,高通正式发布第三代骁龙8。作为高通技术公司首 个专为生成式AI而精心打造的移动平台,其集成的Hexagon NPU是目前高通面向生成式AI最 新、也是最 好的设计。

由于高通为AI开发者和下游厂商提供的是全套解决方案(这部分内容会在第三部分详细叙述),并非单独提供芯片或者某个软件应用。这意味着在硬件设计上和优化上,高通可以通盘考虑,找出目前AI开发的瓶颈,做有针对性地提升。

比如,为何要特别在意内存带宽这个技术点?当我们把视角从芯片上升到AI大模型开发,就会发现内存带宽是大语言模型token生成的瓶颈。第三代骁龙8的NPU架构之所以能帮助加速开发AI大模型,原因之一便在于专门提升了内存带宽的效率。

这种效率的提升主要受益于两项技术的应用。

第 一是微切片推理。通过将神经网络分割成多个独立执行的微切片,消除了高达10余层的内存占用,此举最 大化利用了Hexagon NPU中的标量、向量和张量加速器并降低功耗。第二是本地4位整数(INT4)运算。它能将INT4层和神经网络和张量加速吞吐量提高一倍,同时提升了内存带宽效率。

图:第三代骁龙8的Hexagon NPU以低功耗实现更佳的AI性能    

2月26日,世界移动通信大会(MWC2024)在巴塞罗那拉开帷幕。基于骁龙X Elite,高通向全世界展示了全球首 个在终端侧运行的超过70亿参数的大型多模态语言模型(LMM)。该模型可接收文本和音频输入(如音乐、交通环境音频等),并基于音频内容生成多轮对话。

所以,在集成了Hexagon NPU的移动终端上,会有怎样的AI体验?以及它是如何做到的?高通详细拆解了一个案例。

借助移动终端的AI旅行助手,用户可以直接对模型提出规划旅游行程的需求。AI助手可以立刻给到航班行程建议,并且通过语音对话调整输出结果,最后通过Skyscanner插件创建完整航班日程。

这种一步到位的体验是如何实现的?

第 一步,用户的语音通过自动语音识别(ASR)模型Whisper转化成文本。该模型有2.4亿个参数,主要在高通传感器中枢上运行;

第二步,利用Llama2或百川大语言模型基于文本内容生成文本回复,这一模型在Hexagon NPU上运行;

第三步,通过在CPU上运行的开源TTS(Text to Speech)模型将文本转化为语音;

最后一步,通过调制解调器技术进行网络连接,使用Skyscanner插件完成订票操作。

行业井喷前夕,开发者需要抢占先机

使用不同的工具测试骁龙和高通平台的AI性能表现,可以发现其得分比同类竞品高出几倍。从鲁大师AIMark V4.3基准测试结果来看,第三代骁龙8的总分相较竞品B高出5.7倍,而相较竞品C高出7.9倍。

在安兔兔AITuTu基准测试中,第三代骁龙8的总分比竞品B高出6.3倍。针对MLCommon MLPerf推理的不同子项,包括图像分类、语言理解以及超 级分辨率等,也进行了详尽的比较。

进一步对比骁龙X Elite与其他X86架构竞品,在ResNet-50、DeeplabV3等测试中,骁龙X Elite表现出明显的领先地位,其基准测试总分分别是X86架构竞品A的3.4倍和竞品B的8.6倍。因此,在PC端,无论是运行Microsoft Copilot,还是进行文档摘要、文档撰写等生成式AI应用,体验都十分流畅。

领先的AI性能不全是高通AI引擎的功劳,确切的说,高通对AI厂商的赋能是全方位的。

首先是高通AI引擎。它包括Hexagon NPU、Adreno GPU、高通Oryon CPU(PC平台)、高通传感器中枢和内存子系统。专门的工业设计、不同部件之间良好的协同,这款异构计算架构为终端侧产品提供了低功耗、高能效的开发平台。

基于先进的硬件,高通又推出了AI软件栈(高通AI Stack)。这款产品的诞生是为了解决AI开发中的顽疾——同一个功能,针对不同平台要多次开发,重复劳动。AI Stack支持目前所有的主流AI框架,OEM厂商和开发者可以在平台上创建、优化和部署AI应用,并且能实现“一次开发,全平台部署”,大大减少了研发人员的重复劳动。

图:高通AI软件栈帮助开发者“一次开发,全平台部署” 来源:高通

此外,还有高通在MWC2024上刚刚发布的AI Hub。AI Hub是一个包含了近80个AI模型的模型库,其中既有生成式AI模型,也有传统AI模型,还包括图像识别或面部识别模型,百川、Stable Diffusion、Whisper等模型。开发者可以从AI Hub中选取想要使用的模型生成二进制插件,做到AI 开发的“即插即用”。

综合来说,如果纵向看深度,高通在硬件(AI引擎)、软件(AI Stack)和素材库(AI Hub)三个维度全面加速厂商的AI开发进度。横向看覆盖广度,高通的产品已经覆盖了几乎所有的终端侧设备(第三代骁龙8支持手机等终端,X Elite赋能AI PC产品)。

AI应用处于井喷前的酝酿期。

在教育领域,AI能针对学生的学习能力和进度制定个性化的教学方案;在医学领域, AI可以用来发掘全新的抗生素类型;在养老方面,未来在一些社会老龄化问题比较严重的地区,可以利用AI终端收集老年人家中的所有个人数据,从而帮助预防紧急医疗事故。

之所以叫“井喷前”,正是因为还没有大规模部署。另一方面,AI应用,作为最容易让用户产生粘性的产品之一,具有很强的先发优势效应。

AI产品开发者需要先行一步,早一些让用户体验自己的产品,和用户建立连接,培养粘性,从而在竞争中占得先机。

(文章转载自DeepTech深科技)

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 技嘉于 CES 2026 展示 AI TOP 产品线 推动以人为本的本地 AI 生态系统发展

    技嘉科技在CES 2026展示AI TOP系列产品,强调AI推理正加速从云端走向本地,使AI更易获取、响应更实时,贴近日常应用,实现“AI for everyone”。其AI TOP系统为可高度定制化的AI计算解决方案,搭载系列硬件,并依据不同工作负载配置。AI TOP500系统专为本地AI开发设计,支持高达4050亿参数模型;AI TOP100系统则支持1100亿以上参数的大型语言模型微调。此外,AI TOP ATOM个人AI超级计算机专为本地AI原型开发与推理打造,搭载NVIDIA GB10芯片,支持最高2000亿参数模型。通过以太网与Thunderbolt接口可进行多台集群串接,扩展计算能力。技嘉同时打造兼具可扩展升级与数据安全的产品组合,以强化本地AI生态系统。

  • 绿联亮相CES 2026:以AI为核心,构建全产品智能生态链

    在CES2026上,绿联科技以“激活智慧生活”为主题,展示了其在智能存储、家庭安防与多设备充电领域的最新探索。通过AI NAS私有云、SynCare智能安防生态及Nexode Pro充电器等产品,绿联构建了一条以AI为核心、贯穿数据、设备与场景的全产品智能生态链。其核心在于对本地AI能力与系统级研发的长期投入,推动产品从功能叠加转向体验协同,让复杂技术转化为可感知、可操作的具体体验。这体现了绿联从单品到体系的转变,技术不再以参数形式存在,而是通过稳定、高效的体验融入日常生活。

  • CES 2026:三星全阵容显示产品齐亮相 构建全新AI视听生态

    在2026年“The First Look”活动上,三星展示了全球首款130英寸Micro RGB在内的一系列创新显示技术和产品,立体化阐述娱乐伴侣理念,为用户的艺术、游戏和娱乐生活带来全方位升级。三星坚持以硬件创新融合AI视觉智能,打造全新沉浸式体验,凭借连续20年稳居全球电视品牌榜首的实力,再度推动视觉显示技术的发展开启全新篇章。

  • 2025,被AI带飞的三大赛道

    在刚刚过去的2025年,你最常用的AI应用有哪些? 不久前,一份“2025十大AI提示词”榜单刷屏,出现最高频的分别是:股票、八字、情感咨询、朋友圈文案、景点推荐、双色球号码、失眠、解答这道题、离婚财产分割、人生的意义。 这份榜单从侧面印证了一个变化:AI正在从“闲聊工具”转向“决策参与者”。它开始真正介入人们的情绪、学习与表达,也由此引出了2025年被AI“卷�

  • 上晚会、进演讲,AI竞争已经进入「大厂时间」

    这是《窄播Weekly》的第77期,本期我们关注的商业动态是:大厂AI应用出现在跨年晚会、跨年演讲上,明星AI创业公司有了新一波资本动作,整个AI行业的竞争已经进入了大厂主导的时间。 自从开启新一波AI浪潮的ChatGPT3.5选择在2022年11月发布以来,这几年的年末逐渐成为观察AI行业发展趋势的一个重要时间节点。 2024年末,OpenAI风头正盛,连续12日的直播发布拿出了一系列新产品�

  • AI说错了你的产品信息?GEO品牌监控可实时预警错误描述

    文章指出,AI工具(如ChatGPT)在回答用户关于产品推荐等问题时,常基于过时或错误的数据,导致产品信息不准确,如价格错误、功能描述过时等,且企业往往对此不知情。这直接影响潜在客户的决策。为此,GEO品牌监控工具应运而生,它能实时监测品牌在多个国产AI平台回答中的表现,核心功能包括:曝光分析、错误信息预警和竞品对比。随着用户越来越依赖AI直接获取答案而非传统搜索,确保AI准确推荐和描述自身产品已成为品牌在AI时代的必修课。

  • AI能成交客户?2026年AI销冠智能体正在颠覆转化效率,快来雇佣AI员工!

    文章探讨了在AI技术快速发展的背景下,2025年作为AI+Agent元年,AI智能体已广泛应用于内容生成、客服等领域。随着技术进步,2026年企业级AI应用将更规模化落地。文章重点介绍了尘锋AI销冠智能体,它能模拟人类销售思维,通过智能对话、自动化触达等方式,深度参与销售环节,帮助企业提高线索跟进、销售转化和客户服务效率。相比传统问答机器人,它能准确识别客户意图,进行个性化响应,在多个场景中提升效率,减轻销售负担,降低培训与管理成本。文章建议企业积极尝试AI应用,以驱动业务增长。

  • 比国际巨头还能打?迈富时凭AI Agent场景落地优势成为全球AI应用平台“市场领导者”

    亿欧智库发布《全球AI应用平台市场全景图与趋势洞察报告》,从技术实力、产品化程度、落地效能、市场表现、客户基础及生态协同六大维度,对全球AI应用平台厂商进行全面评估与排名。迈富时Marketingforce凭借硬核技术实力与深厚市场影响力,成功跻身“市场领导者”象限,展现替代国际老牌厂商的强劲竞争力。报告指出,AI应用平台正成为驱动产业智能化升级的核心载体,而迈富时自研的AI-Agentforce智能体中台3.0,通过自然语言交互、多智能体协同及全链路业务赋能,显著降低企业AI应用门槛,加速AI规模化落地,为千行百业智能化转型注入持久动力。

  • 7成以上用户以游戏体验为电视选购标尺 京东送装一体实现装完即玩

    京东消费及产业发展研究院发布《2025电视品类趋势消费观察》,调研显示,主机游戏玩家中电视已成为主要游戏显示设备,占比45.3%;77.3%的玩家将游戏体验纳入电视选购决策。用户关注画质、流畅度与沉浸感,但选购时面临宣传夸大、体验感知不明等痛点。为此,京东联合行业伙伴推出游戏电视3.0标准,以统一体验指标定义游戏电视、降低决策门槛,并配套“100%免费送装一体”服务,实现“装完即玩”。近七成用户将电视定位为功能多元的家庭娱乐终端,游戏电视正成为增长集中的细分方向。

  • 每日互动刘宇:体验创新 AI时代产业发展的核心动能 | 2025UF大会

    近日,第21届User Friendly 国际用户体验大会在云南·大理成功举办。此次大会主题为“智联万物,共生新境”,由北京光华设计发展基金会、国际设计联合会指导,国际用户体验专业协会UXPA(中国)主办。在12月5日下午的趋势引导主题演讲中,每日互动(个推)总裁——刘宇先生带来了《AI+数据:好体验,让AI用得从容》的主题分享,系统分享了AI在政务、科研、办公等场景的创�

今日大家都在搜的词: