商汤旗下大晓机器人发布 ACE 具身研发范式、开悟世界模型 3.0 等
商汤科技旗下大晓机器人正式发布 ACE 具身研发范式、首个开源且商业应用的开悟世界模型3.0(Kairos 3.0)、具身超级大脑模组A1。
根据介绍,ACE具身研发范式秉承“以人为中心(Human-centric)”, 其环境式数据采集可实现一年千万小时的数据收集,开悟世界模型3.0则不断放大真实数据价值,使其达到上亿小时数据规模的效果。ACE研发范式以环境式数据采集为引擎,构建了一套从“环境式数据采集—开悟世界模型3.0—具身交互”的全链路技术体系。
ACE范式核心技术之一环境式数据采集技术,通过跨视角多模态设备,融合视觉、触觉、语音、力学规律等多维度数据,物理级建模与全场景覆盖的创新设计,为具身智能模型训练提供“人—物—场”全要素精准数据支撑。
环境式数据采集技术以人为中心构建全要素采集体系,整合第一视角与第三视角视频、力触觉信息、运动轨迹、语音等多模态数据,构建基于物理基础的3D资产库,全面覆盖具身模型训练所需的各类交互信息,实现了多视角协同、长程任务覆盖与全维度信息捕捉的跨越式升级。
在数据处理环节,通过时序一致性对齐、交互动态轨迹预测建模与物理正确性仿真校正,将采集到的“人—物—场”信息转化为可直接用于模型训练的动态场景数据,实现从数据采集到应用的全链路打通。
该技术路径的推出为具身智能带来四大核心数据价值。
- 数据维度更全面,完成超10个视角、8种模态、4大类物品属性的多模态数据升级,实现全要素覆盖;
- 任务覆盖更长程,支撑分钟级、数百种原子动作的复杂任务;
- 交互精度更高,达到亚像素级标准,可精准追踪人手精细化操作等复杂动作;
- 采集效率更具规模化,能快速完成从十万小时到千万小时的海量数据积累。
以环境式采集数据为基,大晓机器人发布了首个开源且商业化应用的世界模型——开悟世界模型3.0,形成跨本体的统一世界理解框架,融合物理规律、人类行为和真机动作,使机器不仅能“理解”物理世界因果规律,还能“生成”长时动静态交互场景,进而“预测”万千可能。
作为首个“多模态理解—生成—预测”的世界模型,开悟世界模型3.0通过视觉、3D轨迹、触觉、摩擦力等多维度信息输入,深度理解真实世界的物理规律与人类行为的底层逻辑,让模型能形成“知其然,知其所以然”的思维链。
基于多模态信息的深度融合,模型可生成长时动态交互场景视频,在场景内实现各元素精准可控;并具备跨本体一键生成、多本体泛化、预测万千演化路径等特性,为具身智能提供高保真、可泛化的虚拟训练环境。
开悟具身智能世界模型产品平台集成“文生世界、像驱世界、迹塑世界”等多模态生成能力,内置支持11大类、54细类,累计328个标签,覆盖115个垂类具身场景,开发者只需输入简单指令,就能快速生成可视化的任务模拟内容,并可一键分享,大幅降低具身智能的开发门槛。
目前,开悟世界模型3.0已与沐曦股份、壁仞科技、中科曙光等多款厂商国产芯片完成适配。
具身超级大脑模组 A1 则具备拥有云端交互能力,依托云端模型平台,能实时解析自然语言指令与图像语义的意图关系,像人一样理解复杂的现实世界,生成可执行的中间指令(如“前进 50 厘米““绕过障碍”“靠近目标”),再由底层控制器精确执行。这使得机器狗不仅能够在复杂环境中完成自主巡检、跟随、避障等多样任务,而且能根据自然语言指令精准完成任务。

