近日,清华大学、北京大学、上海交通大学、武汉大学联合发布了名为MotionTrans的人机协同训练框架。该框架的创新之处在于使机器人能够在没有任何演示的情况下通过观察人类行为来学习和执行新技能。这标志着机器人学习领域的重大突破。
传统的机器人训练需要大量的真实演示数据,而收集这些数据既耗时又昂贵。例如,教机器人如何拧开瓶盖需要反复作并记录每一个细节。现在,MotionTrans可以通过虚拟现实(VR)设备捕获详细的手部运动数据,为机器人学习提供基础。
在MotionTrans的实施中,研究人员使用了便携式VR设备,允许任何人随时参与数据记录。系统不仅记录了用户手部的关键点,还同步了第一人称视角的视频,保证了数据的质量和丰富性。收集后,团队构建了一个包含 3,213 个演示的数据集,涵盖了各种人机任务。
核心技术在于将人体运动数据转换为机器人可以理解的格式。研究人员优化了该技术,将人的手部动作准确地映射到机器人的关节角度,使机器人能够在真实环境中执行人类动作。此外,为了适应机器人的工作特性,研究团队调整了速度和舒适区,以确保机器人的安全性和稳定性。
这一创新框架意味着机器人可以通过模仿人类的自然动作来学习更高效的技能,为未来的人机协作奠定基础。
声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
