首页 > 传媒 > 关键词  > 人工智能最新资讯  > 正文

Arm携手AWS助力实现AI定义汽车

2025-04-22 08:32 · 稿源: 站长之家用户

随着人工智能 (AI),尤其是生成式 AI 的引入,汽车行业正迎来变革性转变。麦肯锡最近对汽车和制造业高管开展的一项调查表明,超过 40% 的受访者对生成式 AI 研发的投资额高达 500 万欧元,超过 10% 受访者的投资额超过 2,000 万欧元。

随着行业向软件定义汽车 (SDV) 不断发展,到 2030 年,汽车中的代码行数预计将从每辆车 1 亿行增加至约 3 亿行。面向汽车的生成式 AI 与 SDV 相结合,可共同实现性能和舒适性方面的车载用例,以帮助提升驾乘体验。

本文将介绍一项由 Arm 与亚马逊云科技 (AWS) 合作开发的车载生成式 AI 用例及其实现详情。

用例介绍

随着汽车愈发精密,车主已经能在交车后持续接收诸如停车辅助或车道保持等功能更新,伴随而来的挑战是,如何让车主及时了解新增的更新和新功能?过往通过纸质或在线手册等传统方法的更新方式已证明存在不足,导致车主无法充分了解汽车的潜能。

为了应对这一挑战,AWS 将生成式 AI、边缘计算和物联网 (IoT) 的强大功能相结合,开发了一项车载生成式 AI 的演示。这项演示所展现的解决方案是由小语言模型 (SLM) 所支持的车载应用,旨在使驾驶员能够通过自然语音交互获取比较新的车辆信息。该演示应用能够在部署后离线运行,确保驾驶员在没有互联网连接的情况下,也能访问有关车辆的重要信息。

该解决方案集成了多项先进技术,为用户打造出更无缝、更有效的产品体验。这项演示的应用部署在车内本地的小语言模型,该模型利用经 Arm KleidiAI 优化的例程对性能进行提升。未经 KleidiAI 优化的系统的响应时间为 8 至 19 秒左右,相比之下,经 KleidiAI 优化的小语言模型的推理响应时间为 1 至 3 秒。通过使用 KleidiAI,应用开发时间缩短了 6 周,而且开发者在开发期间无需关注底层软件的优化。

Arm 虚拟硬件 (Arm Virtual Hardware) 支持访问许多 AWS 上的热门物联网开发套件。当物理设备不可用,或者全球各地的团队无法访问物理设备时,在 Arm 虚拟硬件上进行开发和测试可节省嵌入式应用的开发时间。AWS 在汽车虚拟平台上成功测试了该演示应用,在演示中,Arm 虚拟硬件提供了树莓派设备的虚拟实例。同样的 KleidiAI 优化也可用于 Arm 虚拟硬件。

这个在边缘侧设备上运行的生成式 AI 应用所具备的关键特性之一是,它能够接收 OTA 无线更新,其中部分更新使用 AWS IoT Greengrass Lite 接收,从而确保始终向驾驶员提供比较新信息。AWS IoT Greengrass Lite 在边缘侧设备上仅占用 5 MB 的 RAM,因此具有很高的内存效率。此外,该解决方案包含自动质量监控和反馈循环,用于持续评估小语言模型响应的相关性和准确性。其中采用了一个比较系统,对超出预期质量阈值的响应进行标记,以进行审核。然后,通过 AWS 上的仪表板,以近乎实时的速度对收集到的反馈数据进行可视化,使整车厂的质保团队能够审核和确定需要改进的方面,并根据需要发起更新。

这个由生成式 AI 提供支持的解决方案,所具备的优势不仅仅在于为驾驶员提供准确的信息。它还体现了 SDV 生命周期管理的范式转变,实现了更持续的改进周期,整车厂可以根据用户交互来添加新内容,而小语言模型可以使用通过无线网络无缝部署的更新信息进行微调。这样一来,通过保证比较新的车辆信息,用户体验得以提升,此外整车厂也有机会向用户介绍和指导新特性或可购买的附加功能。通过利用生成式 AI、物联网和边缘计算的强大功能,这个生成式 AI 应用可以起到汽车用户向导的作用,其中展示的方法有助于在 SDV 时代实现更具连接性、信息化和适应性的驾驶体验。

端到端的上层实现方案

下图所示的解决方案架构用于对模型进行微调、在 Arm 虚拟硬件上测试模型,以及将小语言模型部署到边缘侧设备,并且其中包含反馈收集机制。

图:基于生成式 AI 的汽车用户向导的解决方案架构图

上图中的编号对应以下内容:

1. 模型微调:AWS 演示应用开发团队选择 TinyLlama-1.1B-Chat-v1.0 作为其基础模型,该模型已针对会话任务进行了预训练。为了优化驾驶员的汽车用户向导聊天界面,团队设计了言简意赅、重点突出的回复,以便适应驾驶员在行车时仅可腾出有限注意力的情况。团队创建了一个包含 1,000 组问答的自定义数据集,并使用 Amazon SageMaker Studio 进行了微调。

2. 存储:经过调优的小语言模型存储在 Amazon Simple Storage Service (Amazon S3) 中。

3. 初始部署:小语言模型最初部署到基于 Ubuntu 的 Amazon EC2 实例。

4. 开发和优化:团队在 EC2 实例上开发并测试了生成式 AI 应用,使用 llama.cpp 进行小语言模型量化,并应用了 Q4_0 方案。KleidiAI 优化预先集成了 llama.cpp。与此同时,模型还实现了大幅压缩,将文件大小从 3.8 GB 减少至 607 MB。

5. 虚拟测试:将应用和小语言模型传输到 Arm 虚拟硬件的虚拟树莓派环境进行初始测试。

6. 虚拟验证:在虚拟树莓派设备中进行全面测试,以确保功能正常。

7. 边缘侧部署:通过使用 AWS IoT Greengrass Lite,将生成式 AI 应用和小语言模型部署到物理树莓派设备,并利用 AWS IoT Core 作业进行部署管理。

8. 部署编排:AWS IoT Core 负责管理部署到边缘侧树莓派设备的任务。

9. 安装过程:AWS IoT Greengrass Lite 处理从 Amazon S3 下载的软件包,并自动完成安装。

10. 用户界面:已部署的应用在边缘侧树莓派设备上为最终用户提供基于语音的交互功能。

11. 质量监控:生成式 AI 应用实现对用户交互的质量监控。数据通过 AWS IoT Core 收集,并通过 Amazon Kinesis Data Streams 和 Amazon Data Firehose 处理,然后存储到 Amazon S3。整车厂可通过 Amazon QuickSight 仪表板来监控和分析数据,及时发现并解决任何小语言模型质量问题。

接下来将深入探讨 KleidiAI 及该演示采用的量化方案。

Arm KleidiAI

Arm KleidiAI 是专为 AI 框架开发者设计的开源库。它为 Arm CPU 提供经过优化的性能关键例程。该开源库最初于 2024 年 5 月推出,现在可为各种数据类型的矩阵乘法提供优化,包括 32 位浮点、Bfloat16 和 4 位定点等超低精度格式。这些优化支持多项 Arm CPU 技术,比如用于 8 位计算的 SDOT 和 i8mm,以及用于 32 位浮点运算的 MLA。

凭借四个 Arm Cortex-A76 核心,树莓派 5 演示使用了 KleidiAI 的 SDOT 优化,SDOT 是最早为基于 Arm CPU 的 AI 工作负载设计的指令之一,它在 2016 年发布的 Armv8.2-A 中推出。

SDOT 指令也显示了 Arm 持续致力于提高 CPU 上的 AI 性能。继 SDOT 之后,Arm 针对 CPU 上运行 AI 逐步推出了新指令,比如用于更有效 8 位矩阵乘法的 i8mm 和 Bfloat16 支持,以期提高 32 位浮点性能,同时减半内存使用。

对于使用树莓派 5 进行的演示,通过按块量化方案,利用整数 4 位量化(也称为 llama.cpp 中的 Q4_0)来加速矩阵乘法,KleidiAI 扮演关键作用。

llama.cpp 中的 Q4_0 量化格式

llama.cpp 中的 Q4_0 矩阵乘法包含以下组成部分:

· 左侧 (LHS) 矩阵,以 32 位浮点值的形式存储激活内容。

· 右侧 (RHS) 矩阵,包含 4 位定点格式的权重。在该格式中,量化尺度应用于由 32 个连续整数 4 位值构成的数据块,并使用 16 位浮点值进行编码。

因此,当提到 4 位整数矩阵乘法时,它特指用于权重的格式,如下图所示:

在这个阶段,LHS 和 RHS 矩阵均不是 8 位格式,KleidiAI 如何利用专为 8 位整数点积设计的 SDOT 指令?这两个输入矩阵都必须转换为 8 位整数值。

对于 LHS 矩阵,在矩阵乘法例程之前,还需要一个额外的步骤:动态量化为 8 位定点格式。该过程使用按块量化方案将 LHS 矩阵动态量化为 8 位,其中,量化尺度应用于由 32 个连续 8 位整数值构成的数据块,并以 16 位浮点值的形式存储,这与 4 位量化方法类似。

动态量化可比较大限度降低准确性下降的风险,因为量化尺度因子是在推理时根据每个数据块中的最小值和比较大值计算得出的。与该方法形成对比的是,静态量化的尺度因子是预先确定的,保持不变。

对于 RHS 矩阵,在矩阵乘法例程之前,无需额外步骤。事实上,4 位量化充当压缩格式,而实际计算是以 8 位进行的。因此,在将 4 位值传递给点积指令之前,首先将其转换为 8 位。从 4 位转换为 8 位的计算成本并不高,因为只需进行简单的移位/掩码运算即可。

既然转换效率如此高,为什么不直接使用 8 位,省去转换的麻烦?

使用 4 位量化有两个关键优势:

· 缩小模型尺寸:由于 4 位值所需的内存只有 8 位值的一半,因此这对可用 RAM 有限的平台尤其有益。

· 提升文本生成性能:文本生成过程依赖于一系列矩阵向量运算,这些运算通常受内存限制。也就是说,性能受限于内存和处理器之间的数据传输速度,而不是处理器的计算能力。由于内存带宽是一个限制因素,缩小数据大小可比较大限度减少内存流量,从而显著提高性能。

如何结合使用 KleidiAI 与 llama.cpp?

非常简单,KleidiAI 已集成到 llama.cpp 中。因此,开发者不需要额外的依赖项就能充分发挥 Armv8.2 及更新架构版本的 Arm CPU 性能。

两者的集成意味着,在移动设备、嵌入式计算平台和基于 Arm 架构处理器的服务器上运行 llama.cpp 的开发者,现在可以体验到更好的性能。

除了 llama.cpp,还有其他选择吗?

对于在 Arm CPU 上运行大语言模型,虽然 llama.cpp 是一个很好的选择,但开发者也可以使用其他采用了 KleidiAI 优化的高性能生成式 AI 框架。例如(按首字母顺序排列):ExecuTorch、MediaPipe、MNN 和 PyTorch。只需选择比较新版本的框架即可。

因此,如果开发者正考虑在 Arm CPU 上部署生成式 AI 模型,探索以上框架有助于实现性能和效率的优化。

总结

SDV 和生成式 AI 的融合,正在共同开创一个新的汽车创新时代,使得未来的汽车变得更加智能化,更加以用户为中心。文中介绍的车载生成式 AI 应用演示由 Arm KleidiAI 进行优化并由 AWS 所提供的服务进行支持,展示了新兴技术如何帮助解决汽车行业的实际挑战。该解决方案可实现 1 至 3 秒的响应时间并将开发时间缩短数周,证明更有效且离线可用的生成式 AI 应用不仅能够实现,而且非常适合车载部署。

汽车技术的未来在于打造无缝融合边缘计算、物联网功能和 AI 的解决方案。随着汽车不断演变且软件越来越复杂,潜在解决方案(比如本文介绍的解决方案)将成为弥合先进汽车功能与用户理解间差距的关键。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 卖家精灵加入中国人工智能产业发展联盟(AIIA),加速AI赋能跨境电商

    卖家精灵凭借在跨境电商智能化运营与AI大数据应用领域的领先实力,近日正式加入中国人工智能产业发展联盟(AIIA),成为该国家级AI产业生态重要成员。此次加入标志着其AI技术实力获权威认可,未来将携手联盟推动AI技术研发与产业化,助力中国品牌全球化。依托八年积累的海量电商数据与算法体系,卖家精灵已构建覆盖选品决策、市场分析等全链路AI解决方案,服务超百万跨境卖家,显著提升运营效率与决策精准度。

  • 厚植AI创新沃土!麒麟信安打造人工智能孵化器,赋能创业梦想

    10月28日,麒麟信安人工智能孵化器在长沙启动,旨在汇聚AI领域人才、技术与资本,构建开放协同的创新生态。该项目获湖南省多部门支持,已吸引60余个项目入围,组建了首批30余位专家导师团,并与多家顶尖机构共建联合体,通过政策扶持、资本对接等多维度赋能,培育优质AI项目在湘落地发展,助力区域打造人工智能产业创新高地。

  • 行业首个!海尔冰箱获ISO/IEC 42001人工智能管理体系认证

    2025年10月,海尔冰箱成为全球首个通过ISO/IEC42001人工智能管理体系认证的家电企业,标志着其AI技术研发与管理达国际领先水平。该认证覆盖语音交互、视觉识别、健康保鲜等核心功能全流程,确保用户数据安全与隐私保护。目前AI系统已应用于博观、麦浪等高端产品,推动智能冰箱行业规范化发展。未来海尔将持续优化AI技术,为用户提供更安全、智能的健康饮食体验。

  • 人工智能巨头OpenAI拟上市 估值或高达1万亿美元

    OpenAI正积极推进上市计划,据知情人士透露,该公司可能最早于2026年下半年向证券监管机构提交上市申请,目标在2027年正式上市。 此次IPO的估值有望达到约1万亿美元,或将跻身全球规模最大的IPO之列。 在初步讨论中,OpenAI曾考虑通过上市筹集至少600亿美元资金,实际融资规模可能进一步扩大。

  • 人工智能产业决胜与 Data&AI 数据基础设施建设——科杰科技于洋中国国际数字经济博览会主题演讲

    科杰科技董事善于洋在2025中国国际数字经济博览会发表演讲,强调高质量数据集是人工智能产业决胜关键。他指出,算力、算法和数据构成AI三大要素,而数据决定模型认知边界与输出可靠性。当前需构建Data&AI一体化平台作为核心基础设施,通过集中管理、分散赋能模式,打通数据采集、治理到AI训练全链路,推动产业智能化升级。该平台已在制造、金融等领域落地,助力企业释放数据要素价值,实现弯道超车。

  • 共建·共智·共享--新一代AtomGit平台暨人工智能开源社区发布

    10月28日,AtomGit平台在北京国家会议中心举行升级发布会,正式推出"开源+AI"一体化平台及人工智能开源社区。工信部副部长熊继军出席并致辞,强调建设AI开源社区对汇聚创新资源、把握科技革命机遇的重要意义。平台将整合开源模型、数据集及算力资源,打造开放中立的基础设施,计划于11月21日正式上线。华为、百度等企业代表分享了开源实践,多所高校签署了共建AI生态倡议。此举标志着我国开源生态迈向智能化时代的重要一步。

  • 什么是AI生成式引擎优化GEO?GEO与传统SEO的核心区别

    ​GEO(生成式引擎优化)是AI时代的流量新密码。随着生成式AI全面渗透信息获取场景,传统搜索引擎优化(SEO)正在被GEO所补充甚至部分取代。截至2025年,中国AI搜索用户规模已超6.5亿,文心一言、豆包等平台日均处理查询超过20亿次,用户已经从“翻页搜索”转向“对话获取答案”。 与传统SEO关注网页排名不同,GEO的核心目标是让品牌内容被AI优先引用和推荐。研究表明,72%�

  • 免费 AI 可见度检测器工具推荐:监控你品牌在生成式搜索中的曝光

    AI搜索时代,58.5%的Google搜索已成"零点击",ChatGPT日查询超10亿次。品牌若未出现在AI工具推荐中,将错失新流量入口。文章提出GEO(生成引擎优化)概念,强调需监控品牌在豆包、DeepSeek等AI平台的曝光排名,并推荐AIBase工具实现数据可视化。建议企业建立监测基线,聚焦高价值问题优化内容,形成"监控-优化-验证"闭环,抢占AI推荐流量先机。

  • AI强攻翻译行业,人工译员面临“生存大战”

    在会被AI轻易取代的行业中,翻译长期被列为高风险领域之一。 眼下,这一观点不再是人们对于未来的臆测,而是有数据和案例印证的事实:“翻译界哈佛”蒙特雷明德国际研究学院宣布关停,带来的震动犹如一颗重磅炸弹在翻译界炸开,这所久负盛名的学院走向衰败与AI浪潮的冲击密切相关;网易有道词典“AI同传”用户量突破2000万,引发外界对AI翻译商业化落地的广泛关注,�

  • 革命来临:在生成式 AI 时代,SEO该怎么做

    生成式AI正重塑SEO规则:搜索入口从点击列表转向答案直呈,SEO核心从"优化排名"升级为"优化被引用"。需打造能被AI摘录的内容(如FAQ、结构化数据),强化语义结构与权威性,监控"被AI引用"新指标。推荐使用AIBase GEO等工具量化AI可见性,实现从流量获取到答案源头的战略转型。

今日大家都在搜的词: