1月4日,斯坦福大学符博士领导的研究团队在社媒发布了一项突破性的新成果—机器人成功克隆人类行为和任务的能力。原文标题 【Mobile ALOHA-Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation】论文链接【Mobile ALOHA (mobile-aloha.github.io)】。

其双臂机器人通过模仿学习算法与静态ALOHA数据共同训练,仅用50个示教,熟练的实现了自主完成复杂的移动操作任务。

而在今天1月5日,团队直接放出了更多细节:

最新的展示不仅有机器人浇花、扫地、逗猫等更多绝活:

动图封面
动图封面
动图封面

还有叠衣服、换被套这种的家务活动作:

动图封面
动图封面

其实昨天的虾仁炒蛋制作步骤就已经让人十分震惊,这打鸡蛋的熟练度简直了:

动图封面

而且做完饭还可以洗碗、清理现场:

动图封面

然后今天机器人再把洗好的碗拿出来:

动图封面

昨天是做完家务后与主人击掌庆祝下:

动图封面

今天是给主人刮个胡子压压惊:

动图封面

昨天机器人即便是训练数据中看不到的椅子,也能够摆正:

动图封面

今天直接就把机器人为自己充电安排上了,主打一个运行闭环:

动图封面

核心研究成果:Mobile ALOHA实现机器人专业模仿

这背后我们发现,此研究主要关注机器人通过人类示教动作学习双手操作技巧,尤其是在涉及全身控制的任务上。

为此,符博士团队设计了一套低成本的全身远程操作系统,相较之前的移动机器人技术,该系统可以在人类示教的学习模仿中具有出色的表现。

然而,大多数研究都集中在桌面操作上,缺乏移动性和灵活性,这对于一般有用的任务来说远远不够。为了解决这一问题,斯坦福符博士研发团队又开发了一套全新的复合机器人系统,以模拟那些需双手和全身控制的动态操作任务。

具体而言,首先他们提出了一个低成本且全身的远程操作系统——Mobile ALOHA,用于数据收集。该系统运用了一个移动基座(即松灵差速驱动底盘TRACER)和一个全身远程操作界面。

随后,依托Mobile ALOHA收集的丰富数据,符博士的研究团队进行了监督学习实验,并发现联合静态ALOHA数据集共同训练可以提高移动操作任务的性能。而且每个任务仅需提供50次示教,就可以将成功率提高至90%。

这两天陆续展示的结果表明,Mobile ALOHA足以自主完成例如清理桌面污渍、煎炸和端盘、打开双门壁橱存放重物、呼叫和乘电梯以及水龙头冲洗厨具等动态复杂任务,基本实现人类生活家居覆盖。

动图封面
动图封面
动图封面

此研究的重要性在于,它不仅提供了一种新的数据收集方法,还展示了如何有效地利用已有的数据集进行高效迁移学习,以更方便提高机器人在复杂环境中的操作能力。特别是在需要双手和全身控制的复合移动操作任务中,这种方法具有前景广阔的应用潜力,也让人们看到了机器人真正走进千家万户的可能性。

此外,Mobile ALOHA系统的低成本特性意味着它可以在实际应用中广泛部署,为各种机器人任务提供支持。可以说,该研究开拓了机器人技术一种新的可能性,尤其是在模仿人类完成复杂动作方面的突破意义重大。