首页 > 传媒 > 关键词  > 人工智能最新资讯  > 正文

Arm携手AWS助力实现AI定义汽车

2025-04-22 08:32 · 稿源: 站长之家用户

随着人工智能 (AI),尤其是生成式 AI 的引入,汽车行业正迎来变革性转变。麦肯锡最近对汽车和制造业高管开展的一项调查表明,超过 40% 的受访者对生成式 AI 研发的投资额高达 500 万欧元,超过 10% 受访者的投资额超过 2,000 万欧元。

随着行业向软件定义汽车 (SDV) 不断发展,到 2030 年,汽车中的代码行数预计将从每辆车 1 亿行增加至约 3 亿行。面向汽车的生成式 AI 与 SDV 相结合,可共同实现性能和舒适性方面的车载用例,以帮助提升驾乘体验。

本文将介绍一项由 Arm 与亚马逊云科技 (AWS) 合作开发的车载生成式 AI 用例及其实现详情。

用例介绍

随着汽车愈发精密,车主已经能在交车后持续接收诸如停车辅助或车道保持等功能更新,伴随而来的挑战是,如何让车主及时了解新增的更新和新功能?过往通过纸质或在线手册等传统方法的更新方式已证明存在不足,导致车主无法充分了解汽车的潜能。

为了应对这一挑战,AWS 将生成式 AI、边缘计算和物联网 (IoT) 的强大功能相结合,开发了一项车载生成式 AI 的演示。这项演示所展现的解决方案是由小语言模型 (SLM) 所支持的车载应用,旨在使驾驶员能够通过自然语音交互获取比较新的车辆信息。该演示应用能够在部署后离线运行,确保驾驶员在没有互联网连接的情况下,也能访问有关车辆的重要信息。

该解决方案集成了多项先进技术,为用户打造出更无缝、更有效的产品体验。这项演示的应用部署在车内本地的小语言模型,该模型利用经 Arm KleidiAI 优化的例程对性能进行提升。未经 KleidiAI 优化的系统的响应时间为 8 至 19 秒左右,相比之下,经 KleidiAI 优化的小语言模型的推理响应时间为 1 至 3 秒。通过使用 KleidiAI,应用开发时间缩短了 6 周,而且开发者在开发期间无需关注底层软件的优化。

Arm 虚拟硬件 (Arm Virtual Hardware) 支持访问许多 AWS 上的热门物联网开发套件。当物理设备不可用,或者全球各地的团队无法访问物理设备时,在 Arm 虚拟硬件上进行开发和测试可节省嵌入式应用的开发时间。AWS 在汽车虚拟平台上成功测试了该演示应用,在演示中,Arm 虚拟硬件提供了树莓派设备的虚拟实例。同样的 KleidiAI 优化也可用于 Arm 虚拟硬件。

这个在边缘侧设备上运行的生成式 AI 应用所具备的关键特性之一是,它能够接收 OTA 无线更新,其中部分更新使用 AWS IoT Greengrass Lite 接收,从而确保始终向驾驶员提供比较新信息。AWS IoT Greengrass Lite 在边缘侧设备上仅占用 5 MB 的 RAM,因此具有很高的内存效率。此外,该解决方案包含自动质量监控和反馈循环,用于持续评估小语言模型响应的相关性和准确性。其中采用了一个比较系统,对超出预期质量阈值的响应进行标记,以进行审核。然后,通过 AWS 上的仪表板,以近乎实时的速度对收集到的反馈数据进行可视化,使整车厂的质保团队能够审核和确定需要改进的方面,并根据需要发起更新。

这个由生成式 AI 提供支持的解决方案,所具备的优势不仅仅在于为驾驶员提供准确的信息。它还体现了 SDV 生命周期管理的范式转变,实现了更持续的改进周期,整车厂可以根据用户交互来添加新内容,而小语言模型可以使用通过无线网络无缝部署的更新信息进行微调。这样一来,通过保证比较新的车辆信息,用户体验得以提升,此外整车厂也有机会向用户介绍和指导新特性或可购买的附加功能。通过利用生成式 AI、物联网和边缘计算的强大功能,这个生成式 AI 应用可以起到汽车用户向导的作用,其中展示的方法有助于在 SDV 时代实现更具连接性、信息化和适应性的驾驶体验。

端到端的上层实现方案

下图所示的解决方案架构用于对模型进行微调、在 Arm 虚拟硬件上测试模型,以及将小语言模型部署到边缘侧设备,并且其中包含反馈收集机制。

图:基于生成式 AI 的汽车用户向导的解决方案架构图

上图中的编号对应以下内容:

1. 模型微调:AWS 演示应用开发团队选择 TinyLlama-1.1B-Chat-v1.0 作为其基础模型,该模型已针对会话任务进行了预训练。为了优化驾驶员的汽车用户向导聊天界面,团队设计了言简意赅、重点突出的回复,以便适应驾驶员在行车时仅可腾出有限注意力的情况。团队创建了一个包含 1,000 组问答的自定义数据集,并使用 Amazon SageMaker Studio 进行了微调。

2. 存储:经过调优的小语言模型存储在 Amazon Simple Storage Service (Amazon S3) 中。

3. 初始部署:小语言模型最初部署到基于 Ubuntu 的 Amazon EC2 实例。

4. 开发和优化:团队在 EC2 实例上开发并测试了生成式 AI 应用,使用 llama.cpp 进行小语言模型量化,并应用了 Q4_0 方案。KleidiAI 优化预先集成了 llama.cpp。与此同时,模型还实现了大幅压缩,将文件大小从 3.8 GB 减少至 607 MB。

5. 虚拟测试:将应用和小语言模型传输到 Arm 虚拟硬件的虚拟树莓派环境进行初始测试。

6. 虚拟验证:在虚拟树莓派设备中进行全面测试,以确保功能正常。

7. 边缘侧部署:通过使用 AWS IoT Greengrass Lite,将生成式 AI 应用和小语言模型部署到物理树莓派设备,并利用 AWS IoT Core 作业进行部署管理。

8. 部署编排:AWS IoT Core 负责管理部署到边缘侧树莓派设备的任务。

9. 安装过程:AWS IoT Greengrass Lite 处理从 Amazon S3 下载的软件包,并自动完成安装。

10. 用户界面:已部署的应用在边缘侧树莓派设备上为最终用户提供基于语音的交互功能。

11. 质量监控:生成式 AI 应用实现对用户交互的质量监控。数据通过 AWS IoT Core 收集,并通过 Amazon Kinesis Data Streams 和 Amazon Data Firehose 处理,然后存储到 Amazon S3。整车厂可通过 Amazon QuickSight 仪表板来监控和分析数据,及时发现并解决任何小语言模型质量问题。

接下来将深入探讨 KleidiAI 及该演示采用的量化方案。

Arm KleidiAI

Arm KleidiAI 是专为 AI 框架开发者设计的开源库。它为 Arm CPU 提供经过优化的性能关键例程。该开源库最初于 2024 年 5 月推出,现在可为各种数据类型的矩阵乘法提供优化,包括 32 位浮点、Bfloat16 和 4 位定点等超低精度格式。这些优化支持多项 Arm CPU 技术,比如用于 8 位计算的 SDOT 和 i8mm,以及用于 32 位浮点运算的 MLA。

凭借四个 Arm Cortex-A76 核心,树莓派 5 演示使用了 KleidiAI 的 SDOT 优化,SDOT 是最早为基于 Arm CPU 的 AI 工作负载设计的指令之一,它在 2016 年发布的 Armv8.2-A 中推出。

SDOT 指令也显示了 Arm 持续致力于提高 CPU 上的 AI 性能。继 SDOT 之后,Arm 针对 CPU 上运行 AI 逐步推出了新指令,比如用于更有效 8 位矩阵乘法的 i8mm 和 Bfloat16 支持,以期提高 32 位浮点性能,同时减半内存使用。

对于使用树莓派 5 进行的演示,通过按块量化方案,利用整数 4 位量化(也称为 llama.cpp 中的 Q4_0)来加速矩阵乘法,KleidiAI 扮演关键作用。

llama.cpp 中的 Q4_0 量化格式

llama.cpp 中的 Q4_0 矩阵乘法包含以下组成部分:

· 左侧 (LHS) 矩阵,以 32 位浮点值的形式存储激活内容。

· 右侧 (RHS) 矩阵,包含 4 位定点格式的权重。在该格式中,量化尺度应用于由 32 个连续整数 4 位值构成的数据块,并使用 16 位浮点值进行编码。

因此,当提到 4 位整数矩阵乘法时,它特指用于权重的格式,如下图所示:

在这个阶段,LHS 和 RHS 矩阵均不是 8 位格式,KleidiAI 如何利用专为 8 位整数点积设计的 SDOT 指令?这两个输入矩阵都必须转换为 8 位整数值。

对于 LHS 矩阵,在矩阵乘法例程之前,还需要一个额外的步骤:动态量化为 8 位定点格式。该过程使用按块量化方案将 LHS 矩阵动态量化为 8 位,其中,量化尺度应用于由 32 个连续 8 位整数值构成的数据块,并以 16 位浮点值的形式存储,这与 4 位量化方法类似。

动态量化可比较大限度降低准确性下降的风险,因为量化尺度因子是在推理时根据每个数据块中的最小值和比较大值计算得出的。与该方法形成对比的是,静态量化的尺度因子是预先确定的,保持不变。

对于 RHS 矩阵,在矩阵乘法例程之前,无需额外步骤。事实上,4 位量化充当压缩格式,而实际计算是以 8 位进行的。因此,在将 4 位值传递给点积指令之前,首先将其转换为 8 位。从 4 位转换为 8 位的计算成本并不高,因为只需进行简单的移位/掩码运算即可。

既然转换效率如此高,为什么不直接使用 8 位,省去转换的麻烦?

使用 4 位量化有两个关键优势:

· 缩小模型尺寸:由于 4 位值所需的内存只有 8 位值的一半,因此这对可用 RAM 有限的平台尤其有益。

· 提升文本生成性能:文本生成过程依赖于一系列矩阵向量运算,这些运算通常受内存限制。也就是说,性能受限于内存和处理器之间的数据传输速度,而不是处理器的计算能力。由于内存带宽是一个限制因素,缩小数据大小可比较大限度减少内存流量,从而显著提高性能。

如何结合使用 KleidiAI 与 llama.cpp?

非常简单,KleidiAI 已集成到 llama.cpp 中。因此,开发者不需要额外的依赖项就能充分发挥 Armv8.2 及更新架构版本的 Arm CPU 性能。

两者的集成意味着,在移动设备、嵌入式计算平台和基于 Arm 架构处理器的服务器上运行 llama.cpp 的开发者,现在可以体验到更好的性能。

除了 llama.cpp,还有其他选择吗?

对于在 Arm CPU 上运行大语言模型,虽然 llama.cpp 是一个很好的选择,但开发者也可以使用其他采用了 KleidiAI 优化的高性能生成式 AI 框架。例如(按首字母顺序排列):ExecuTorch、MediaPipe、MNN 和 PyTorch。只需选择比较新版本的框架即可。

因此,如果开发者正考虑在 Arm CPU 上部署生成式 AI 模型,探索以上框架有助于实现性能和效率的优化。

总结

SDV 和生成式 AI 的融合,正在共同开创一个新的汽车创新时代,使得未来的汽车变得更加智能化,更加以用户为中心。文中介绍的车载生成式 AI 应用演示由 Arm KleidiAI 进行优化并由 AWS 所提供的服务进行支持,展示了新兴技术如何帮助解决汽车行业的实际挑战。该解决方案可实现 1 至 3 秒的响应时间并将开发时间缩短数周,证明更有效且离线可用的生成式 AI 应用不仅能够实现,而且非常适合车载部署。

汽车技术的未来在于打造无缝融合边缘计算、物联网功能和 AI 的解决方案。随着汽车不断演变且软件越来越复杂,潜在解决方案(比如本文介绍的解决方案)将成为弥合先进汽车功能与用户理解间差距的关键。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 海尔冰箱唯一获批“制冷家电人工智能技术山东省工程研究中心”

    海尔冰箱在人工智能领域取得新突破,主导建设的"制冷家电人工智能技术山东省工程研究中心"成为2025年山东省工程研究中心认定名单中唯一入选的冰箱品牌。该中心聚焦人工智能、物联网、大数据等技术方向,开发了全空间智慧保鲜舱冰箱等140多项行业首创产品,近三年获授权发明专利803件。海尔冰箱还推出行业首款接入DeepSeek的AI全空间保鲜冰箱,具备方言识别、降噪技术等功能,显著提升用户体验。市场数据显示,2023年1-7月海尔冰箱以47%市场份额稳居行业第一。通过AI技术赋能,海尔冰箱正引领行业向精准、智能保鲜时代跨越。

  • ISC.AI 2025 人工智能安全治理与创新实践论坛圆满召开

    ISC.AI2025人工智能安全论坛在北京召开,聚焦AI安全治理与创新实践。论坛汇集顶尖专家,探讨大模型安全评估与防护、智能体安全、AI治理等前沿议题。360集团张向征指出,随着Agent技术爆发式应用,AI安全已成为产业核心焦点。专家们强调需构建AI安全防护体系,应对大模型直接访问核心系统带来的全新挑战。中国电子院彭健提出企业合规建设需关注九大要素,清华大学苏航揭示智能体安全风险远超传统AI。华为云范建军倡导端到端大模型安全防护,中国信通院杨哲超呼吁构建协同治理框架。论坛为构建安全、普惠、负责任的人工智能未来贡献智慧。

  • 下一个爆款在哪儿?2025英特尔人工智能创新应用大赛获奖名单揭晓

    8月16日,2025英特尔人工智能创新应用大赛总决赛在深圳落幕。40支优秀团队从2817支队伍中脱颖而出,围绕工业、教育、心理健康、游戏等领域展开对决。大赛展示了AI从云端走向边缘的趋势,依托酷睿Ultra处理器和低代码开发工具,推动AI应用本地化落地。获奖作品包括动力电池机器人协作拆卸系统和AI生成PPT服务,体现AI与产业需求的深度融合。英特尔与联想、惠普等合作伙伴共同为开发者提供全栈支持,加速AI技术普及和商业化进程。

  • Razer(雷蛇)在新加坡设立AI CENTER OF EXCELLENCE,加速人工智能投资布局

    雷蛇宣布在新加坡设立全球AI卓越中心,并计划在欧洲和美国建立类似机构,推动游戏与开发者工具领域的创新。新加坡中心将招聘150名AI工程师,专注于下一代AI游戏技术研发。雷蛇还推出AI工具套件,包括Game Co-AI和QA Co-AI,帮助开发者提升游戏质量和开发效率。该战略布局正值全球游戏市场快速增长期,预计2033年AI游戏市场规模将达280亿美元。新加坡数字产业发展局表示,此举将巩固该国作为区域AI创新中心的地位。

  • 这个为全民造梦的AI工具,正在改写影视行业的规则

    ​过去一年,AI视频技术开启了一个全民造梦时代。 从OpenAI的视频生成模型Sora“技惊四座”的Demo,到快手旗下的可灵AI“后来者居上”,整个影视行业仿佛瞬间被推入了一个全新的纪元。 如果我们把电影工业史的坐标轴拉长,会发现它就是由一个个技术变革的新纪元串联起来的,从无声到有声,从黑白到彩色,从胶片到数字…… 但AI影像纪元的颠覆性在于,这不仅是一次工

  • 东郊到家:严格品质把控,树立行业服务典范

    在按摩行业蓬勃发展的今天,服务品质成为用户选择平台的关键因素。东郊到家始终将品质把控放在首位,通过严格的技师选拔、规范的服务流程、完善的评价反馈机制以及定期的培训考核,确保为用户提供高品质的上门按摩服务。其树立的行业服务典范,不仅赢得了用户的高度认可和信赖,也为整个行业的健康发展起到了积极的推动作用。

  • 行业首个AI数字云仓项目获中物联科技进步一等奖,释放了什么信号?

    物流行业面临传统仓储效率低下、库存滞销率高等结构性矛盾。中国物流与采购联合会召开科技大会,聚焦数智供应链和AI+物流,其中日日顺的AI数字云仓项目获一等奖。该项目以AI算法为核心,打通全链路数据,实现库存资源共享与智能调度,有效解决库存积压和配送滞后问题。政策层面持续支持物流数智化转型,企业应用案例显示成本降低、效率提升。未来行业竞争将聚焦技术创新与全链路协同能力,物流正从"资源驱动"向"科技驱动"深度变革。

  • 优志愿投了小鹭AI:高报行业的静水流深

    文章聚焦教育行业两大热点:一是高考名师张雪峰可能告别直播,折射出个人IP模式的脆弱性及行业转型困境;二是小鹅AI获优志愿天使轮投资,估值达4000万,双方将探索"AI+教育"新模式。张雪峰案例揭示了传统高报行业依赖个人名师的重运营、高成本痛点;而优志愿意与小鹅AI的合作则展示了技术赋能的新路径——AI处理基础咨询,释放规划师专注个性化服务。文章指出,未来教育服务应是"技术+人性化"结合,AI作超级助手,规划师担任决策伙伴,共同构建更可持续的服务生态。

  • 深度剖析:钛投标免费策略背后的行业真相与野心

    AI浪潮下,标书制作领域正经历智能化变革。免费工具“钛投标”迅速走红,其坚持免费策略引发用户好奇。文章分析其背后原因:一是技术尚未完全成熟,团队更看重长期用户认可而非短期盈利;二是背后有雄厚企业支持,提供稳定资金与数据资源;三是行业乱象对比,付费工具存在体验差、质量参差等问题。钛投标通过免费策略积累用户信任,致力于打造真正解决用户痛点的专业工具。

  • 专家盛赞GEO双引擎系统:生成式引擎优化以旋律诠释自身

    GEO双引擎系统主题曲《GEO双引擎系统之歌》开创了技术主题音乐创作先河,通过独特艺术形式诠释生成式引擎优化技术内核。该作品由汤祎飞创立的GEO系统创新生成,融合科技与艺术边界,获科技界、产业界和学术界广泛关注。多位顶级专家盛赞其开创性价值,认为该曲有效突破技术传播壁垒,为产业生态提供了兼具深度与温度的认知桥梁。歌曲以"双引擎驱动未来"为�

今日大家都在搜的词: