1月29日,宇树宣布开源 UnifoLM-VLA-0。UnifoLM-VLA-O是UnifoLM系列下面向通用人形机器人操作的视觉-语言-动作(VLA)大模型。该模型旨在突破传统VLM在物理交互中的局限,通过在机器人操作数据上的继续预训练,实现了从通用”图文理解”向具备物理常识的”具身大脑”的进化。
模型在空间感知与理解能力上较 Qwen2.5-VL-7B有显著提升,并且在“nothinking”模式下可比肩Gemini-Robotics-ER 1.5。
分享快讯到朋友圈