首页 > 传媒 > 关键词  > AI座舱最新资讯  > 正文

聚焦用户价值 自研技术架构 TINNOVE梧桐科技发布“AI座舱”战略方向

2024-09-06 14:14 · 稿源: 站长之家用户

9月5日,TINNOVE梧桐科技以“智启芯生·AI无界”为主题,举办“2024TTI技术及产品发布会”。TINNOVE梧桐科技与联发科技签订战略合作,共同发力“AI座舱”战略方向,真正实现AI定义汽车,联接数智汽车时代。

腾讯集团副总裁、腾讯智慧出行总裁、梧桐科技董事长钟翔平表示:“今天的大会上,梧桐科技展示了在芯片算力、AI大模型应用等方面的规划。未来,期待梧桐持续加大科技和研发投入,不断创新产品功能,提升用户体验,为汽车企业提供更有价值的解决方案。我们也希望通过梧桐科技这座桥梁,为更多的车企服务,共同促进智能汽车生态的繁荣发展。”

(图:腾讯集团副总裁、腾讯智慧出行总裁、梧桐科技董事长钟翔平致辞)

战略革新,实现AI定义座舱

今年4月,TINNOVE梧桐科技发布全栈式智能空间品牌TTI(TINNOVE & TAI Inside)。时隔半年,“AI”标签再次升级:数智汽车时代的“AI座舱”,将被全新定义为“AI座舱专属算力、AI座舱专属架构、AI座舱专属应用”。

TINNOVE梧桐科技CEO蔡勇表示:“AI的最终幻想,是完全的、难分真假的‘类人’。而我们的‘AI座舱’,是让出行变成‘人’的陪伴。梧桐科技与战略合作伙伴联发科技一道,打造‘AI座舱’的全新定义,让用户可以真正意义上拥有私人的、移动的‘智能生活空间’。”

(图:TINNOVE梧桐科技CEO蔡勇演讲)

联发科技资 深副总经理游人杰表示:“联发科技透过天玑汽车平台为汽车行业提供前沿的AI创新技术和突破性的芯片产品,我们与梧桐科技的紧密合作将促进数智汽车时代的快速发展,用生成式AI重新定义新一代智能座舱。”

(图:联发科技资 深副总经理游人杰演讲)

产品革新,专注创造用户价值

TINNOVE梧桐科技副总经理刘铜阳表示:“用户对车的需求,正在从传统的功能价值向情绪价值和精神价值演进,用户希望拥有‘随心所欲’的享受。梧桐科技希望通过‘AI座舱’,真正为用户创造沉浸的氛围、贴心的陪伴和自由的拓展,情绪价值拉满。”

(图:TINNOVE梧桐科技副总经理刘铜阳演讲)

“AI座舱解决方案1.0”,创造大模型赋能下的智趣空间体验。具体包括TTI OS的3D桌面和趣聊助手,以及TTI Eco泡泡玛特联名形象,TTI Vision画质增强,TTI Accessary小桐畅联以及多种联接方案。目前,“AI座舱解决方案1.0”已量产搭载在多个品牌序列的10余款车型,预计全生命周期海内外销量将超过400万辆。

AI座舱解决方案2.0,打造行业领先的智能空间体验。具体包括TTI OS全新产品TTI镜空间,以及基于车载场景的TTI专家助手;TTI Vision重点打造3D抬头显示;与腾讯智慧出行共同开发的智慧联接AI——TTI联接精灵,会是这一代解决方案的亮点。“AI座舱解决方案2.0”依托于性能更加强大的TTI Computing第二代算力平台,计划将亮相2025年的新车型上。

“AI座舱解决方案3.0”代表TINNOVE梧桐科技对未来AI座舱的畅想,全面实现理念的升维、能力的爆发,以及广阔的联接,预计最早在2026年实现车型搭载。

技术革新,五大自研架构大力支撑

TINNOVE梧桐科技副总经理王永亮表示:“在全面芯算力一体、全面数实融合、全面群体智能的AI技术发展趋势下,TINNOVE梧桐科技打造‘AI座舱专属架构’,以生成式AI架构、AI大模型端云架构、AI3D引擎架构、AI舱驾协同架构和AI软总线架构,为用户带来比较罕见的出行体验。”

(图:TINNOVE梧桐科技副总经理王永亮演讲)

生成式AI架构,具有零层级交互对话及跨领域理解的特点,采用了多模态感知、大模型决策、自然语音处理等关键技术,去支撑贴心懂我,丰富多元的行车助手和情感伴侣。该架构可以支持多个大模型无缝切换,能够灵活适配不同用车场景,具有拟人化交互、多模态环境感知、个性化场景推荐三大核心能力。

AI大模型端云融合架构围绕“人-车-路-云-场”交通体系,基于“人-车-环境”多维度数据,结合多模感知和大模型融合技术,实现全空域、全时域的“智商、情商,双商在线”。

AI3D引擎架构基于国产自主3D渲染引擎,结合AI技术,实现物数融合、虚实一体。该架构具备“三维重建”的关键能力,通过该技术提升真实场景还原度。同时,“AI3D渲染”可以显著提升3D渲染效率和画质,通过3D超分技术、光线重建技术、材质风格等技术,整体效率提升50%。

TINNOVE梧桐科技的“AI座舱专属架构”同时为行业合作伙伴提供了接入的空间。中国电信车联网创新中心总监王国俊表示:“AI座舱是大模型落地的最 佳智能体。中国电信将与TINNOVE梧桐科技一同创新探索汽车行业大模型创新场景,如在出行大咖大模型、音乐DJ大模型、场景魔方大模型、文生壁纸大模型等方面加深合作,为用户提供情绪价值,让用户爱上用车。”

(图:中国电信车联网创新中心总监王国俊演讲)

“AI浪潮”正在席卷科技行业、汽车行业,乃至全球各领域。TINNOVE梧桐科技将继续坚持以AI为核心的企业发展战略,秉承创新、开放、合作的理念,与合作伙伴共同绘制数智汽车领域的宏伟蓝图,帮助客户联接数智汽车时代,为用户创造更多价值。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 大家在看
  • Youtube-Whisper:利用OpenAI的Whisper模型转录YouTube视频

    Youtube-Whisper是一个基于Gradio的应用程序,它通过提取YouTube视频的音频并使用OpenAI的Whisper模型来转录成文本。这个工具对于需要将视频内容转化为文本以进行分析、存档或翻译的用户来说非常有用。它利用了最新的人工智能技术,提高了视频内容的可访问性和可用性。

  • OpenFLUX.1:开源的文本到图像生成模型

    OpenFLUX.1是一个基于FLUX.1-schnell模型的微调版本,移除了蒸馏过程,使其可以进行微调,并且拥有开源、宽松的许可证Apache 2.0。该模型能够生成令人惊叹的图像,并且只需1-4步即可完成。它是一个尝试去除蒸馏过程,创建一个可以微调的开源许可模型。

  • LiveKit Agents:构建智能多模态语音助手的端到端框架。

    LiveKit Agents 是一个端到端框架,它使开发者能够构建能够通过语音、视频和数据通道与用户互动的智能多模态语音助手(AI代理)。它通过集成OpenAI的实时API和LiveKit的WebRTC基础设施,提供了创建语音助手的快速入门指南,包括语音识别(STT)、语言模型(LLM)和文本转语音(TTS)的流水线。此外,它还支持创建语音到语音代理、接听和响应来电、以及代表用户拨打电话的功能。

  • BeaGo:智能搜索伴侣,快速获取可靠答案。

    BeaGo是一款由Rhymes Technology Inc开发的智能搜索应用,它利用先进的AI技术,能够理解用户的需求,快速找到可靠和高质量的答案。无论是解决复杂问题还是追求好奇心,BeaGo都能提供帮助。它通过AI生成的摘要快速提供清晰的答案,并且能够解读搜索内容中的图片,以视觉化的方式提供信息。此外,BeaGo还能学习用户的喜好,推荐新的话题,激发灵感。

  • bolt.new:AI驱动的全栈Web应用开发沙盒

    bolt.new是一个集成了人工智能技术的开发者沙盒,旨在帮助开发者快速启动、运行、编辑和部署全栈Web应用程序。它提供了多种模板和框架,支持开发者使用他们喜欢的技术栈创建项目。

  • Open-O1:开源大语言模型,匹配专有强大能力。

    Open O1是一个开源项目,旨在通过开源创新,匹配专有的强大O1模型能力。该项目通过策划一组O1风格的思考数据,用于训练LLaMA和Qwen模型,赋予了这些较小模型更强大的长期推理和解决问题的能力。随着Open O1项目的推进,我们将继续推动大型语言模型的可能性,我们的愿景是创建一个不仅能够实现类似O1的性能,而且在测试时扩展性方面也处于领先地位的模型,使高级AI能力为所有人所用。通过社区驱动的开发和对道德实践的承诺,Open O1将成为AI进步的基石,确保技术的未来发展是开放的,并对所有人有益。

  • AI Video Quiz:AI视频真假辨别测试

    AI Video Quiz是一个由Kapwing团队制作的在线测试,旨在教育公众如何辨别真实视频与由AI生成的假视频。通过这个测试,用户可以了解到AI视频编辑技术的最新进展,并提高对深度视频的警觉性。该测试通过展示公众人物的视频,让用户判断其真实性,从而引发对AI技术在视频制作领域应用的思考。

  • YOLO11:先进的目标检测和跟踪模型

    Ultralytics YOLO11是基于之前YOLO系列模型的进一步发展,引入了新特性和改进,以提高性能和灵活性。YOLO11旨在快速、准确、易于使用,非常适合广泛的目标检测、跟踪、实例分割、图像分类和姿态估计任务。

  • Stable Video Portraits:生成逼真的动态人脸视频。

    Stable Video Portraits是一种创新的混合2D/3D生成方法,利用预训练的文本到图像模型(2D)和3D形态模型(3D)生成逼真的动态人脸视频。该技术通过人特定的微调,将一般2D稳定扩散模型提升到视频模型,通过提供时间序列的3D形态模型作为条件,并引入时间去噪过程,生成具有时间平滑性的人脸影像,可以编辑和变形为文本定义的名人形象,无需额外的测试时微调。该方法在定量和定性分析中均优于现有的单目头部化身方法。

  • Posterior-Mean Rectified Flow:一种最小化均方误差的图像恢复算法

    Posterior-Mean Rectified Flow(PMRF)是一种新颖的图像恢复算法,它通过优化后验均值和矫正流模型来最小化均方误差(MSE),同时保证图像的逼真度。PMRF算法简单而高效,其理论基础是将后验均值预测(最小均方误差估计)优化到与真实图像分布相匹配。该算法在图像恢复任务中表现出色,能够处理噪声、模糊等多种退化问题,并且具有较好的感知质量。

  • Meta Movie Gen:使用文本生成定制视频和声音

    Meta Movie Gen 是一个先进的媒体基础AI模型,它允许用户通过简单的文本输入来生成定制的视频和声音,编辑现有视频或将个人图像转换成独特的视频。这项技术代表了AI在内容创造方面的最新突破,为内容创作者提供了前所未有的创作自由度和效率。

  • Graphite Reviewer:AI代码审查伴侣

    Graphite Reviewer是一个AI代码审查工具,它通过即时反馈帮助团队提高代码审查的效率和质量。该工具利用代码库感知AI,自动检测代码中的bug和错误,使团队能够专注于构建而不是审查。它支持自定义规则,保证代码质量和一致性,同时确保代码的私密性和安全性。Graphite Reviewer的主要优点包括快速合并PR、强化质量和一致性、保持代码私密和安全、捕捉常见错误等。

  • Character SDK:构建可实时互动的AI角色

    Character SDK是一个能够创建AI角色的平台,这些角色可以实时听、说、看,甚至采取行动。它通过实时语音和视觉识别、高级OCR处理、多语言交流、自适应推理和基于意图的任务自动化等技术,帮助企业提高效率,减少成本,并提供个性化的用户体验。

  • Temperstack:一站式SRE平台,提升服务可靠性。

    Temperstack是一个企业级的主动式SRE平台,旨在减少SRE的重复劳动,提高服务的可靠性。它通过自动化服务目录、警报审计和跨您的监控工具的SLI报告,为从CTO到SRE工程师的团队提供可见性、主动发现问题并促进协作。Temperstack集成了流行的监控工具,提供统一的命令界面,以实现全面的SRE可见性和行动。

  • o1-engineer:命令行工具,提升开发效率

    o1-engineer 是一个命令行工具,旨在帮助开发者通过 OpenAI 的 API 高效地管理和交互项目。它提供了代码生成、文件编辑、项目规划等功能,以简化开发工作流程。

  • Canvas:与ChatGPT协作的新方式

    Canvas是OpenAI推出的一个新界面,旨在通过与ChatGPT的协作来改进写作和编码项目。它允许用户在一个单独的窗口中与ChatGPT一起工作,超越了简单的聊天界面。Canvas利用GPT-4o模型,能够更好地理解用户的上下文,并提供内联反馈和建议。它支持直接编辑文本或代码,并提供快捷操作菜单,帮助用户调整写作长度、调试代码等。Canvas还支持版本回溯,帮助用户管理项目的不同版本。

  • Text Behind Image:轻松创建文字背景图片设计。

    Text Behind Image 是一个开源的设计工具,允许用户轻松创建文字背景图片设计。它提供了一个简洁的界面,让用户可以自由地在图片上添加文字,创造出独特的视觉效果。这个工具对于设计师、社交媒体运营者和内容创作者来说非常有用,因为它可以快速生成具有吸引力的视觉内容。

  • torchao:PyTorch原生量化和稀疏性训练与推理库

    torchao是PyTorch的一个库,专注于自定义数据类型和优化,支持量化和稀疏化权重、梯度、优化器和激活函数,用于推理和训练。它与torch.compile()和FSDP2兼容,能够为大多数PyTorch模型提供加速。torchao旨在通过量化感知训练(QAT)和后训练量化(PTQ)等技术,提高模型的推理速度和内存效率,同时尽量减小精度损失。

  • LFMs:新一代生成式AI模型

    Liquid Foundation Models (LFMs) 是一系列新型的生成式AI模型,它们在各种规模上都达到了最先进的性能,同时保持了更小的内存占用和更高效的推理效率。LFMs 利用动态系统理论、信号处理和数值线性代数的计算单元,可以处理包括视频、音频、文本、时间序列和信号在内的任何类型的序列数据。这些模型是通用的AI模型,旨在处理大规模的序列多模态数据,实现高级推理,并做出可靠的决策。

  • NVLM-D-72B:前沿的多模态大型语言模型

    NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。

今日大家都在搜的词: