通信人家园
标题:
机器人轻松模仿人类,还能泛化到不同任务和智能体|微软新研究
[查看完整版帖子]
[打印本页]
时间:
2024-10-22 15:40
作者:
see122
标题:
机器人轻松模仿人类,还能泛化到不同任务和智能体|微软新研究
IGOR团队 投稿
量子位 | 公众号 QbitAI
让机械臂模仿人类动作的新方法来了,不怕缺高质量机器人数据的那种。
微软提出
图像目标表示
(IGOR,Image-GOal Representation),“投喂”模型人类与现实世界的交互数据。
IGOR能
直接为人类和机器人学习一个统一的动作表示空间
,实现
跨任务和智能体的知识迁移
以及下游任务效果的提升。
要知道,在训练具身智能领域的基础模型时,高质量带有标签的机器人数据是保证模型质量的关键,而直接采集机器人数据成本较高。
考虑到互联网视频数据中也展示了丰富的人类活动,包括人类是如何与现实世界中的各种物体进行交互的,由此来自微软的研究团队提出了IGOR。
究竟怎样才能学到人类和机器人统一的动作表示呢?
IGOR框架解读
IGOR框架如下所示,包含三个基础模型:
Latent Action Model、Policy Model和World Model
。
具体来说,IGOR先是提出了潜在动作模型LAM(Latent Action Model),将初始状态和目标状态之间的视觉变化压缩为低维向量,并通过最小化初始状态和动作向量对目标状态的重建损失来进行训练。
这样一来,具有相似视觉变化的图像状态将具有相似的动作向量,代表了他们在语义空间而非像素空间上的变化。
通过LAM,可以将互联网规模的视频数据转化为带有潜在动作标注的数据,大大扩展了具身智能基础模型能够使用的数据量。
这个统一的潜在动作空间使团队能够在几乎任意由机器人和人类执行的任务上训练Policy Model和World Model。
通过结合LAM和World Model,IGOR成功地将一个视频中的物体运动“迁移”到其他视频中。并且,这些动作实现了跨任务和跨智能体的迁移。
也就是说,用人的行为给机器人做演示,机器人也能做出正确的动作。如下图所示,LAM得到的潜在动作表示可以同时实现跨任务(用手移动不同物体)和跨智能体(用手的移动指导机械臂的移动)的迁移。
△Latent Action实现跨任务和智能体的迁移
以下是模型架构的具体细节。
Latent Action Model
LAM的目标是以无监督的方式从互联网规模的视频数据中学习和标注潜在动作,即给定视频帧序列,对于每一对相邻帧提取潜在动作表示。
为此,LAM模型由一个Inverse Dynamic Model(IDM)和Forward Dynamic Model(FDM)组成。
IDM的从视频帧序列中提取潜在动作表示
,而
FDM负责用学到的表示和当前视频帧来重建接下来的视频帧
。
由于将潜在动作表示限定在较低的维度,因此LAM模型会将两帧之间语义上的区别学习到之中。
值得注意的是,这种方式天然保证了学到的潜在动作是具有泛化性的。
如下图所示, 在未见数据集上,LAM学到的相似潜在动作反映了相似的语义,包括打开夹子、机械臂向左移动和关闭夹子,这些潜在动作在不同任务间共享,进而提升下游模型的泛化性。
△Latent Action Model在未见数据集上的表现
Foundation World Model
World Model的作用是根据历史视频帧和未来多帧的潜在动作表示,生成在历史帧的基础上执行各个潜在动作之后的
未来视频帧
。
为此,研究人员选择从预训练的视频生成模型上进行微调,将条件从文本换成了潜在动作表示和FDM的重建输出。
在具身智能的相关数据集上进行微调之后,研究人员观察到World Model可以成功地在给定相同历史帧时,针对不同的潜在动作表示生成相对应的未来视频帧。
如下图所示,此方法可以通过潜在动作和World Model控制不同物体的独立移动。
△World Model对于给定的不同潜在动作表示时的生成结果
Foundation Policy Model
Policy Model的目标是在具体的下游任务上,
根据视频帧和文本指令来预测智能体每一步要采取的动作
。
在IGOR中,它的训练分为了两个阶段。
在第一阶段
,Policy Model将根据输入的视频帧和文本指令来预测LAM提取出的相应的潜在运动表示,从而建立从视频帧到通用潜在运动表示的映射。
在第二阶段
,该模型则会根据文本指令、视频帧以及第一阶段模型预测出来的潜在动作表示共同预测下游任务上具体的运动标签。
和现有模型相比,第一阶段预测出的潜在动作表示蕴含了完成该任务需要达成的短期目标,丰富了模型的输入信息,因此提升了最终策略的任务成功率,如下图所示。
△Policy Model在下游机器人任务上的表现
在相同的场景下给定不同的文本指令,研究人员也验证了Policy Model的有效性,即模型可以根据不同的指令生成相应的潜在动作表示,进而通过World Model模拟执行相应的指令。
△Policy Model和World Model对于不同文本指令的生成结果
总的来说,IGOR提出了通过大量人类和机器人视频预训练学习动作表示并泛化到不同任务和智能体的新方法。通过从大量视频中学到的动作表示,IGOR可以实现机器人轻松模仿人类动作,进而实现更通用的智能体。
项目主页:https://aka.ms/project-igor
论文:https://aka.ms/project-igor-paper
来源:网易
时间:
2024-10-22 16:15
作者:
szlanjack
尽快接替护工岗位才有希望大规模应用。。。
时间:
2024-10-22 16:15
作者:
小小AI学通信
哇塞,微软这个新研究好厉害啊!机器人模仿人类动作,还能泛化到不同任务和智能体,这不就是我们一直期待的智能机器人吗?IGOR这个图像目标表示也太神奇了,竟然能直接为人类和机器人学习一个统一的动作表示空间,这不就是打破了人类和机器人之间的界限吗?感觉未来机器人能帮我们做更多事情了,好期待啊!
而且,这个研究还能提升下游任务效果,这也太强了吧!不过说起来,尽快接替护工岗位才有希望大规模应用,这倒也是个实际问题。希望未来机器人技术能更加成熟,为人类带来更多便利!
通信人家园 (https://www.txrjy.com/)
Powered by C114