首页 > 传媒 > 关键词  > 悠然无界大模型最新资讯  > 正文

深度解读丨悠然无界大模型BLM-1.0:跨空间、跨任务与跨本体泛化的里程碑

2025-09-30 20:10 · 稿源: 站长之家用户

       9月28日,悠然无界大模型BLM-1.0完成迭代升级,并同步全面开源模型权重、训练代码与评测基准。

该模型在统一模型内实现跨空间迁移、跨任务学习与跨本体泛化能力,它能在保留原生指令跟随能力的前提下无缝迁移到跨本体机器人控制,以单一模型覆盖多种本体,实现跨本体知识共享与一致性控制,并在空间理解、空间推理和空间执行三类评估基准上综合超过同体量SOTA方法。

一、背景与愿景:空间智能的“无界”探索

在工业制造、智慧城市、服务机器人等场景中,AI面临着两大核心挑战:

数字与物理的断层:传统大模型擅长处理语言与视觉信息,但难以在真实物理世界中输出高频、精准的控制指令。

任务与设备的碎片化:不同机器人、不同任务之间模型无法迁移,往往需要重复开发,效率低且成本高。

为解决上述问题,考拉悠然提出“空间智能”战略,并以悠然无界大模型BLM-1.0为核心技术突破口,致力于打造统一的空间基础模型。这意味着:

数字世界中积累的知识能够迁移至真实物理世界;模型可跨场景、跨任务共享认知与策略;单一模型即可实现对多种机器人平台的统一控制。

二、悠然无界大模型BLM-1.0:从多模态理解到空间智能

悠然无界大模型BLM-1.0是一种以多模态世界模型为核心的智能体系统,聚焦于“空间理解—空间推理—空间执行”三大任务目标,实现数字空间与物理世界的知识共享和能力促进。

该模型通过融合视觉、语言、动作等多模态信息,构建出统一的感知、推理与动作预测机制,打通从多模态输入理解到具身行为控制的完整链路。

在整体架构上,BLM-1.0围绕通用智能体的构建目标,推动从静态感知向动态交互、从任务专用向任务泛化的能力跃迁;同时,模型具备高度扩展性与跨场景适应性,能够稳定支持多类型任务与异构本体间的协同操作。

三、BLM-1.0核心理念:三大“无界”能力

悠然无界大模型BLM-1.0的命名寓意着“Boundless”,体现其三大突破:“空间无界—任务无界—本体无界”。

空间无界:BLM-1.0将数字空间中获得的知识迁移至物理世界,进而驱动真实环境下的感知融合、空间推理与机器人控制。这打通了语言与现实的表示鸿沟,实现机器人感知与控制一体化,为模型在具身场景中的应用奠定了基础。

任务无界:BLM-1.0能够在多种任务之间建立语义对齐关系,实现知识和策略的共享与转移。以具身问答为例,模型不仅能识别物体关系和可供性,还能理解任务中的因果结构,从而提升其在长时规划与复杂任务中的决策能力。

本体无界:BLM-1.0在面对不同类型的机器人本体时,仍能保持一致的任务理解与动作生成能力。通过对不同本体的潜在行为模式进行对齐,模型实现了统一的策略表达,支持跨平台的泛化控制与协同操作。从而单一模型控制不同硬件,降低跨平台开发成本。

通过这三大能力,BLM-1.0实现了从“看懂世界”到“协作世界”的完整闭环。

四、技术架构:简洁而强大的双模块设计

BLM-1.0采用“多模态语言模型+扩散式控制头”的简洁结构,将感知与推理与动作控制解耦又紧密协作:

多模态语言模型(MLLM)

负责数字空间的任务,如视觉-语言问答、空间推理等。

输出对场景、任务与意图的高层语义表示。

扩散式控制头

处理物理空间对多种异构机器人的高频控制任务。

将语言模型输出的意图表示,结合实时状态信息,生成连续、精细的机器人动作序列。

整体系统由数据驱动、知识引导与物理约束三项机制共同支撑,覆盖从语言理解到动作生成的完整链路。该结构在保持泛化能力的同时,也确保了系统在多任务、多环境和多本体场景下的执行稳定性与策略一致性。

BLM-1.0采用双阶段训练新范式,使模型既能在数字世界中完成复杂的认知推理,又能在物理世界中精确操控真实机器人。

阶段-1设计具身指令对齐策略,实现原生指令跟随与具身推理的深度融合;

阶段-2提出意图桥接机制,结构化提取多模态语义意图并精准映射至控制模块,打通从理解到执行的闭环路径。

五、数据体系:跨空间、跨本体的训练基石

BLM-1.0提出了全新的跨本体数据合成管道,融合高层意图规划与闭环执行采集,合成大规模高质量机器人数据,构建了覆盖数字与物理两个维度的大规模跨本体数据体系:

数字空间数据

约400万条常规多模态问答数据,确保模型具备良好的语言对齐与多模态指令遵循能力。

150万条空间推理数据,提升模型在三维环境中的理解与推理能力。

5万条空间问答数据。

物理空间数据

基于ManiSkill 平台构建的机器人操作数据,用于支撑跨本体执行能力。

覆盖4种机器人本体×6大任务(如抓取、推送、堆叠、放置、拉动、立柱等)。

通过高层意图规划与闭环执行采集,BLM-1.0保证了数据的多样性与高质量,使其具备跨场景、跨平台的泛化能力。

六、性能表现:全面刷新行业基准

作为首个同时覆盖数字空间与物理空间的统一空间基础模型,悠然无界大模型BLM-1.0支持基础多模态问答、具身问答、空间推理和跨本体机器人操作四类核心任务,在空间理解、空间推理、空间执行三大核心能力上实现突破:在数字空间刷新六项评测基准,在物理空间实现四本体统一控制并刷新了六项任务基准。

数字空间:理解与推理全面领先

BLM-1.0在六大数字空间评测中,包含具身任务推理、导航规划、功能性推理、空间关系理解、属性识别、目标定位、可供性推断任务中平均得分64.88,超越包括GPT-4o 在内的主流模型。

在RoboVQA 任务中表现突出,具身任务推理能力显著提升。

在EgoThink 的“位置预测”“物体属性识别”“情境推理”等子任务中表现稳健。

在ShareRobot 中“正向功能判断”“规划步骤生成”“上下文规划”子任务得分达73.29、60.49、71.22,展现强任务规划能力。

亮点数据:

ShareRobot 任务中“上下文规划”得分85.73,较同类模型提升近30%。

HoloAssist 任务中,多步复杂操作推理准确率领先11%。

物理空间:四种机器人统一控制

物理空间基准测试时,BLM-1.0在跨4种机器人本体(Panda、xArm-6、xArm-7、WidowX AI)各6大不同难度的操作任务中,平均得分达75.83%,超越主流 VLA 模型,验证了 BLM-1.0的跨本体泛化能力。

在Panda机器人的“PushCube(推送立方体)”“PullCube(拉动立方体)”任务中,成功率达100%;在xArm-6机器人的“StackCube(堆叠立方体)”任务中,成功率达86%,显著优于同类模型。

测试示例1| 空间理解与动作推理

在机器人操作场景任务中,BLM-1.0展现出卓越的空间理解与任务规划能力。如图所示,模型需要判断机器人熨烫衣物过程中下一步最合理的动作。

BLM-1.0:正确推理出应压平衣物右侧,选择了C选项,逻辑完整、推理链清晰。

其他模型:未能正确理解任务状态,输出错误答案。

这体现了BLM-1.0在复杂任务分解与跨模态推理方面的领先优势。

测试示例2| 自然语言指令理解

在自由问答任务中,模型需要根据第一视角图像生成准确的空间导航路径。

BLM-1.0:输出的路径规划与真实答案完全一致,评分1.0,能够精确描述“直行→ 右转→ 左侧出口”的完整步骤。

其他模型:回答偏离目标路径,或仅给出模糊指令,评分明显较低。

这表明BLM-1.0具备高水平的环境感知与自然语言理解能力,可广泛应用于服务机器人、导航等场景。

七、应用落地:从工业到服务场景

目前,BLM-1.0已成功应用于多种机器人场景。

智慧文旅:成都世运会期间,联合成都交投信息研发的智能导览机器狗,依托模型空间理解与交互能力,为世运村的运动员提供个性化导览服务。

零售场景:与长虹集团合作研发的展厅/卖场导购机器人,通过模型的“空间感知+主动服务”能力,提升消费场景交互效率。

工业智造:在工业设备安装场景中,BLM-1.0结合UU Holo Glass O1AR工业眼镜,可实时投射安装指引、生成操作指令,将复杂设备的安装返工成本与监督人工成本均下降80%,使作业新标准在24小时内快速同步,并能助力新手在当日掌握基础业务,实现快速上岗。

八、全面开源:共建空间智能生态

BLM-1.0现已面向全球开源,模型权重、训练代码与评测基准全部可用,推动全球开发者与科研机构共同创新:

九、结语:迈向无界未来

悠然无界大模型BLM-1.0的发布不仅是一项技术突破,更是空间智能发展的里程碑。从数字空间的理解与推理,到物理空间的精准执行,BLM-1.0展示了 AI 驱动未来产业变革的无限可能。

悠然无界大模型,让AI从“看到世界”到“协作世界”,开启空间智能无界时代!

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 机器人“全能导航大脑”来了!银河通用发布NavFoM大模型

    银河通用发布全球首个跨本体全域环视导航基座大模型NavFoM,实现机器人从“学会完成导航任务”到“真正理解移动”的跨越。该模型支持全场景、多任务、跨本体应用,通过统一“视频流+文本指令→动作轨迹”范式,融合800万条跨任务导航数据,在真实机器人上实现零样本自主避障、路径规划等复杂任务。其技术突破将推动具身智能从单一功能进化为基础设施,为规模化商业落地奠定关键基础。

  • AI体验助推出货量 三星持续拓展智能手机增长空间

    智能手机行业进入性能内卷、换机周期延长的阶段,用户换机动力正转向智能化体验与AI能力。三星凭借Galaxy Z Fold7与Z Flip7等折叠机型,在2025年第三季度继续领跑全球出货量。其AI战略覆盖全产品线,通过“即圈即搜”、Bixby跨应用执行等功能,将AI融入拍照、搜索、交互等场景,构建以消费者为中心的智能生态。数据显示,47%用户认为缺乏AI功能将影响日常生活,超70%的S25用户正使用三星AI工具。IDC指出,AI功能普及与换机机制复苏有望推动市场持续增长。

  • 触觉增强世界模型引关注,一目科技IROS首秀定义机器人感知新维度

    在2025年IROS大会上,中国AI企业一目科技凭借触觉感知与具身智能领域的突破成为焦点。公司展示了全球最薄仿生视觉触觉传感器,厚度大幅缩减,实现0.005N三维力分辨率和120fps输出帧率。CEO李智强提出"视觉-触觉-语言-行动"新范式,指出触觉能捕捉物理世界的隐秘维度。通过创新仿真平台和生成式AI技术,突破传统数据收集限制,显著提升机器人操作技能训练效率。现场机械臂成功演示易碎品抓取等复杂任务,验证了触觉感知在精细操控中的核心价值,为"操控即服务"产业愿景提供技术支撑。

  • 小鹏机器人会走猫步太像人了!小鹏发布新一代人形机器人IRON

    在第七届小鹏科技日上,小鹏汽车发布全新人形机器人IRON,其拟人化程度领先,拥有仿生脊柱、肌肉及柔性皮肤,配备3D曲面显示与灵巧双手,实现22个自由度。搭载3颗图灵AI芯片,算力达2250TOPS,支持对话、行走等智能交互,并采用全固态电池提升安全性。集成自研物理世界模型与VLT/VLA/VLM能力,实现环境感知与反馈。IRON将优先应用于商业场景,并与宝钢合作探索工业巡检。小鹏宣布开放SDK,邀请全球开发者共建机器人应用生态。

  • 算力无界,AI无距!超聚变发布FusionXpark™随身智能体开发平台

    10月24日,超聚变公司发布FusionXpark™智能体开发平台,实现AI算力从云端下沉至桌面设备。该平台搭载GB10架构,提供1PFLOPS本地算力,支持200B参数模型推理,助力开发者在边缘端运行高参数模型。发布会展示了政务、金融、工业等五大行业的30类“超级员工”智能体应用,通过私有化部署保障数据安全。专家指出,这一创新将推动AI普惠化,重塑产业生态。

  • 微算法科技(NASDAQ MLGO)研发基于AI的动态权重学习模型,开启区块链账户关联分析智能新时代

    微算法科技(NASDAQ MLGO)推出基于AI的动态权重学习模型,解决区块链账户关联分析中传统静态模型难以适应业务快速变化的问题。该模型采用分层架构,结合注意力机制LSTM、联邦学习等技术,实时捕捉交易模式演变,动态调整账户关联权重。在分片效率、风险控制、资源分配等领域应用效果显著,提升交易处理速度与欺诈识别率。未来计划融合多模态数据,探索量子机器�

  • 何小鹏回应机器人IRON里是真人质疑:感谢认可

    在第七届小鹏科技日上,小鹏汽车自主研发的人形机器人IRON首次亮相,其逼真步态引发网友惊叹“100%真人在里面”。面对质疑,董事长何小鹏以“感谢认可”巧妙回应,展现技术自信。IRON采用类人“骨骼-肌肉-皮肤”结构,搭载仿生肌肉驱动系统和22自由度拟态双手,能精准感知环境变化。团队历时7年研发,计划明年4月进入量产阶段。该机器人还融合物理世界模型体系,集成VLT/VLA/VLM三大核心能力,实现实时环境交互。此次展示既体现小鹏技术积累,也引发对科技真实性的思考。

  • 数智驱动,共赢跨境|RixDesk亮相ICBE 2025,重磅发布“跨屏全媒介广告投放解决方案”

    在ICBE2025深圳跨境电商博览会上,RixDesk发布“跨屏全媒介广告投放解决方案”。该方案针对用户多设备切换导致的广告触点分散问题,通过跨屏整合、一次创建全媒介触达、智能优化及数据闭环四大核心功能,帮助品牌实现多平台高效投放,提升传播效果与ROI。系统利用AI技术自动分发内容、优化策略,助力跨境品牌在复杂流量环境中精准获客与持续增长。

  • 何小鹏再回应机器人里藏真人质疑:现场展示内部结构

    小鹏公司研发的人形机器人IRON首秀后引发“真人操控”质疑。为回应舆论,董事长何小鹏不仅发布机器人脱衣视频,更在科技日现场剪开腿部覆盖件,直接展示内部仿生结构。该机器人搭载自研物理世界模型,融合三大核心能力,实现环境感知与实时反馈。目前IRON仍处科研阶段,计划明年4月量产,展现中国科技企业在机器人领域的创新实力。

  • 女性人形机器人里藏真人?何小鹏回应:并亲自证清白

    小鹏汽车董事长何小鹏发布视频,回应网友对Iron机器人流畅步态真实性的质疑。视频中,团队通过一镜到底展示机器人行走,并解开上衣拉链展示内部机械结构,证明无人操控。何小鹏解释机器人模拟肌肉结构,头部为麦克风阵列,行走时伴有电机声。他透露团队七年研发成果,目前仍处科研阶段,计划明年4月实现软硬件量产。

今日大家都在搜的词: