由宇树开发的大型模型UnifoLM-VLA-0已正式开源。作为UnifoLM系列中专为通用类人机器人作设计的视觉-语言-动作(VLA)模型,它标志着机器人大脑从单纯的“文本和图像理解”向具身智能兼具“物理常识”的进化迈出了关键一步。
技术突破:从感知到行动的深度整合
UnifoLM-VLA-0旨在打破传统视觉语言模型(VLM)在物理交互中的局限性:
具身大脑进化:通过对机器人作数据的持续预训练,模型能够理解物理世界的交互规则,而不仅仅是停留在语义层面。
空间细节对齐:该模型将文本指令与二维/三维空间细节整合,显著提升了复杂环境中的空间感知和位置推理能力。
动力学约束:它集成了动作块预测和前/后向动力学约束,实现了长期动作序列的统一建模。
研发架构:基于Qwen2.5-VL的次级演进
宇树利用系统清理后的多任务数据集对模型进行了完善:
核心基础:基于开源的Qwen2.5-VL-7B模型。
高效训练:仅用约340小时的真实机器人数据实现了高质量的任务泛化,用于离散动作预测训练。
性能评估:在空间理解基准测试中,其性能不仅远超基础模型,甚至在特定场景下可与Gemini-Robotics-ER1.5媲美。
实用表现:单一策略可处理12项复杂任务
宇树G1类人机器人平台的验证结果令人印象深刻:
多任务通用性:该模型能够稳定完成12个复杂的作任务,包括对象抓取和放置,均在同一策略网络(检查点)下。
强鲁棒性:真实机器人实验表明,即使面对外部干扰,机器人仍保持良好的执行稳定性和抗干扰能力。
目前,宇树已在GitHub和项目主页完整发布模型代码及相关资料,旨在帮助全球开发者共同推动通用类人机器人的商业化。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
