AI 视频公司 Runway 发布世界模型 GWM‑1
AI 视频公司 Runway 近日宣布推出通用“世界模型”家族 GWM-1,并同步更新其旗舰视频生成模型 Gen‑4.5。
GWM-1 基于 Gen‑4.5 构建,可逐帧生成、实时运行,并通过摄像机姿态、机器人指令、音频等动作进行交互式控制,包含「GWM Worlds」「GWM Avatars」「GWM Robotics」三种后训练变体:
- GWM Worlds 能在长时间移动序列中维持空间连贯性,允许定义环境的几何、光照和物理规则,并对输入动作作出准确响应;
- GWM Robotics 被描述为基于机器人数据训练的「学习型模拟器」,可生成动作条件的视频滚动,支持「反事实」生成以探索不同轨迹与结果,以降低昂贵的真实数据采集与线下测试风险;
- GWM Avatars 为音频驱动的交互式视频生成模型,可在长时对话中稳定呈现自然的人类动作与表情(面部表情、眼球运动、口型同步、手势),适用于实时辅导与教育、客户支持与服务、培训模拟、互动娱乐与游戏等场景。
Runway 在直播中称,其战略正从影视制作扩展至机器人、物理与生命科学,并强调世界模型位于 AI 进步前沿:仅靠语言模型难以解决机器人技术、疾病、科学发现等问题,真正的进步需要模型像人类一样在模拟环境中体验世界并从错误中学习。
Gen‑4.5 的更新集中在画面保真度与创意控制,并新增原生音频生成与编辑、多镜头视频编辑等能力;官方同时承认现阶段视频生成仍存在因果推理、客体恒存性与成功偏差等常见局限,这些问题将作为世界模型研究的重点方向持续迭代。

