当前位置: 首页 > news >正文

经典文献阅读之--PIVOT-R(原始驱动的航点感知世界模型用于机器人操作)

0. 简介

对于人类而言,一旦掌握了 “打开瓶盖” 的动作,面对 “拧紧螺丝” 这样的任务通常也能游刃有余,因为这两者依赖于相似的手部动作。然而,对于机器人来说,即使是这样看似简单的任务转换依然充满挑战。例如,换成另一种类型的瓶盖,机器人可能无法成功打开。这表明,目前的机器人方法尚未充分让模型学习到任务的内在执行逻辑,而只是单纯的依赖于数据拟合。

针对该问题,来自中山大学和华为诺亚等单位的研究团队提出了一种全新的原语驱动的路径点感知世界模型,《PIVOT-R: Primitive-Driven Waypoint-Aware World Model for Robotic Manipulation》借助** VLMs 作为机器人的大脑,理解任务之间的动作关联性,并通过 “世界模型” 获取对未来动作的表征**,从而更好地帮助机器人学习和决策。该方法显著提升了机器人的学习能力,并保持良好的泛化性。

1. 主要贡献

当前,现有机器人操作任务有两个关键问题:

  1. 机器人模型在开放世界中表现差且不稳定:许多机器人操作模型虽然能够处理复杂任务,但往往直接将用户指令和视觉感知映射到低层次的可执行动作上,而忽略了操作任务中关键状态(路径点)的建模。这种方式容易使模型记住表面数据模式,导致模型在开放环境中表现脆弱。模型缺乏对关键路径点的预测,使得每个动作的随机性可能逐步放大,降低了任务的执行成功率。
  2. 计算效率低:随着模型的增大(例如 RT-2, RT-H),运行速率随之降低,无法满足机器人任务实时性的需求

在这里插入图片描述

图1:PIVOT-R与其他模型的比较。 (a) 顺序执行的机器人操作模型。它们在每个时间步中顺序执行模型中的每个模块,以进行操作推理(例如,RT-2 [64]、RT-X [49]、RT-H [5]、VILA [20]、Octo [36]等)或世界建模(例如,Surfer [42]、Daydreamer [56]、3D-VLA [60]等)。这很容易导致模型冗余和较弱的关键操作节点预测能力。 (b) PIVOT-R是一个原始驱动的航点感知世界模型,具有异步层次执行器。它仅关注与操作任务相关的航点预测,相较于其他方法,它更容易预测操作任务中的关键节点。此外,PIVOT-R为不同模块设置了不同的执行频率,以提高执行效率并降低冗余。

为了解决上述问题,研究团队提出了 PIVOT-R,一种原语驱动的路径点感知世界模型。如上图所示,对比左图现有的方法,右图展示了 PIVOT-R 通过关注与任务相关的路径点预测,提升机器人操作的准确性,并设计了一个异步分层执行器,降低计算冗余,提升模型的执行效率。这样做有几个好处:

  1. 它使得模型可以更好的学习任务与动作之间的内在关联性,减少其他干扰因素的影响,并更好地捕捉不同任务之间的相似性(例如,拧瓶盖和拧螺丝的动作是相似的,拿杯子和搭积木都有一个抓住物体的过程),从而使得模型可以在多任务数据下学习到可迁移的知识。
  2. 通过世界模型建模的方式获得对未来关键动作的表征,避免了文本语言带来的模糊性、不确定性
  3. 通过异步执行的方式,确保各模块独立运行、互不阻塞,从而有效避免了大模型导致的低速率问题。

2. 架构与问题表述

我们的目标是构建一个能够在各种零-shot复杂和可变环境中准确及时响应用户指令的机器人操作模型。为此,如图2所示,我们引入了一种原始驱动的航点感知世界模型用于机器人操作。接下来,我们将详细讨论PIVOT-R每个模块的结构细节。

在这里插入图片描述

图2:PIVOT-R概述。它主要由一个航点感知世界模型(WAWM)和一个动作预测模块组成,这两个模块通过异步层次执行器(AHE)相互协作。在WAWM中,我们首先使用预训练的VLM对用户指令进行低频原始动作解析,并为场景预测模块提供航点指示。然后,场景预测模块基于航点和操作轨迹学习建模世界知识。最后,我们使用一个轻量级的动作预测模块进行高频动作预测和执行

如图2 (a)所示,我们将所提出的PIVOT-R表述为学习一个可训练的机器人操作模型 π \pi π,该模型将用户的语言指令 l l l、一系列观察图像 O t − h : t O_{t-h:t} Oth:t和机器人状态 S t − h : t S_{t-h:t} Sth:t从时间步 t − h t-h th映射到当前时间步 t t t的动作 A t A_t At h h h表示历史帧的长度,这里设定为3。此外,我们还为WAWM引入了一个场景预测模块,以帮助模型构建世界知识。PIVOT-R的整体表述如下:

π ( V L M ( l , O t ) , O t − h : t , S t − h : t ) → M t ′ , A t ′ , \pi(VLM(l, O_t), O_{t-h:t}, S_{t-h:t}) \rightarrow M'_t, A'_t, π(VLM(l,Ot),Oth:t,Sth:t)Mt,At,

其中 M t ′ M'_t Mt A t ′ A'_t At分别是模型在时间步 t t t预测的机器人操作的航点和动作。特别地,我们使用预训练的VLM从用户指令 l l l解析出当前机器人应采取的原始动作 P P P,该解析基于机器人的观察图像 O t O_t Ot。然后,我们将 P P P作为时间步 t t t机器人操作的航点指示,帮助机器人建立对未来场景信息和世界知识的预测和建模能力。对于每个动作轨迹 T r a T{ra} Tra,它由语言指令 l l l和一系列观察图像 O O O、机器人状态 S S S、动作 A A A和航点 M M M组成:

T r a = { l , [ O 1 , S 1 , A 1 , M 1 ] , . . . , [ O T , S T , A T , M T ] } , T_{ra} = \{l, [O_1, S_1, A_1, M_1], ..., [O_T, S_T, A_T, M_T]\}, Tra={l,[O1,S1,A1,M1],...,[OT,ST,AT,MT]},

其中 T T T是机器人操作轨迹的时间步长。请注意,由于我们使用AHE,在不同时间步 t t t输入到场景预测模块的原始动作 P P P可能是相同的。模型可以通过低频原始动作解析避免因交替使用VLM和世界模型而导致的冗余,从而提高训练和推理效率。我们在动作预测模块上采用类似的设置,以进一步提高模型的效率。

3. 输入与输出

我们在图2(a)中详细描述了PIVOT-R的输入和输出,如下所示:

在这里插入图片描述

• 语言输入。用户的语言指令 l l l首先与提示结合,并作为预训练VLM的输入,以解析由简短文本表示的原始动作。提示的详细信息见附录F.1。具体而言,在语言指令“给我一瓶饮用水”的例子中,此时的原始动作可能是“接近/抓取/放下容器”。然后,解析出的原始动作和原始指令 l l l通过文本编码器编码为文本序列 P P P。遵循文献[45, 46, 42],我们采用预训练的CLIP [40]作为语言编码器 E t e x t E_{text} Etext
• 视觉输入。对于RGB图像 O O O的视觉观测,我们使用预训练的CLIP [40]视觉编码器 E i m a g e E_{image} Eimage进行编码。
• 机器人状态输入。机器人状态包括6个维度的机器人手臂运动 S = ( x , y , z , roll , pitch , yaw ) S = (x, y, z, \text{roll}, \text{pitch}, \text{yaw}) S=(x,y,z,roll,pitch,yaw)。我们使用线性层对其进行编码。
• 输出。PIVOT-R的输出是由场景预测模块预测的与任务相关的航点图像特征 F M t ′ ∈ R b × n × d F_{M'_{t}} \in \mathbb{R}^{b \times n \times d} FMtRb×n×d由动作预测模块预测的机器人动作 A t ′ A'_{t} At。其中 b , n = 49 b, n = 49 b,n=49 d = 512 d = 512 d=512分别表示批量大小、标记数量和特征 F M t ′ F_{M'_{t}} FMt的维度。动作 A A A包含机器人末端执行器的增量状态 S S S和夹爪的二元状态 G ∈ { 0 , 1 } G \in \{0, 1\} G{0,1},即 A = ( S , G ) ∈ R 1 × 7 A = (S, G) \in \mathbb{R}^{1 \times 7} A=(S,G)R1×7

4.网络

总体而言,PIVOT-R由一个强大的航点感知世界模型和一个轻量级的动作预测模块组成,其详细信息如下:

4.1 航点感知世界模型(WAWM)

通过引入航点作为数据结构分块机制,类似于自然语言处理中的标记化,我们将密集且不规则的机器人轨迹分割成有意义的部分,从而减轻预测负担。这种分层方法解耦了语言与动作之间的相互依赖关系,并利用跨轨迹的航点过渡知识,提高了动作预测的准确性。如图2所示,WAWM主要包括一个强大的VLM和一个场景预测模块 Φ s p \Phi_{sp} Φsp。给定用户指令 l l l,VLM解析 l l l以提供与任务相关的航点提示,这些提示用于指导场景预测模块 Φ s p \Phi_{sp} Φsp进行关键航点预测。
具体而言,在每个时间步 t t t,我们将提示与用户指令 l l l和机器人观察图像 O t O_t Ot结合,作为预训练VLM的输入,以执行与操作任务相关的原始动作解析。然后,解析出的原始动作和原始用户指令 l l l结合形成航点指示器 P t P_t Pt,供场景预测模块使用。上述过程可以表示为:
P t = ( l , V L M ( P r o m p t ( l ) , O t ) ) . ( 3 ) P_t = (l, VLM(Prompt(l), O_t)). \quad (3) Pt=(l,VLM(Prompt(l),Ot)).(3)
对于场景预测模块 Φ s p \Phi_{sp} Φsp,我们使用与机器人操作任务相关的航点 P t P_t Pt作为提示,并将机器人的历史观察图像 O t − h : t O_{t-h:t} Oth:t作为输入,以预测机器人操作的航点特征 F M t ′ F_{M'_{t}} FMt,即:
F M t ′ = Φ s p ( E t e x t ( P t ) , E i m a g e ( O t − h : t ) ) . ( 4 ) F_{M'_{t}} = \Phi_{sp}(E_{text}(P_t), E_{image}(O_{t-h:t})). \quad (4) FMt=Φsp(Etext(Pt),Eimage(Oth:t)).(4)

场景预测模块的模型细节如图2(b)所示。它由 L S = 12 LS = 12 LS=12个变换器层堆叠而成。每个变换器层由一个自注意力层、一个交叉注意力层和一个前馈层组成。

4.2 动作预测模块

对于动作预测模块 Φ a p \Phi_{ap} Φap,我们使用场景预测模块预测的机器人操作航点状态特征 F M t ′ F_{M'_{t}} FMt作为提示,并将机器人的历史观察图像 O t − h : t O_{t-h:t} Oth:t和机器人状态 S t − h : t S_{t-h:t} Sth:t作为输入,以预测机器人在时间 t t t应采取的动作 A t ′ A'_{t} At。因此,动作 A t ′ A'_{t} At的预测过程可以表示为:
A t ′ = Φ a p ( F M t ′ , E i m a g e ( O t − h : t ) , M L P ( S t − h : t ) ) . ( 5 ) A'_{t} = \Phi_{ap}(F_{M'_{t}}, E_{image}(O_{t-h:t}), MLP(S_{t-h:t})). \quad (5) At=Φap(FMt,Eimage(Oth:t),MLP(Sth:t)).(5)
动作预测模块的细节如图2(c)所示,其结构与场景预测模块相同,由 L A = 3 LA = 3 LA=3个变换器层堆叠而成。


5. 异步层次执行器与损失

此外,为了提高PIVOT-R的执行效率,我们采用异步层次执行模式,分别执行原始动作解析、场景预测和动作预测。具体而言,如图2(a)所示,我们根据需求为这三个部分使用不同的执行频率。对于原始动作解析,由于需要大量计算使用VLM,因此我们采用较低的执行频率 v 1 v_1 v1。对于轻量级动作预测模块,我们采用较高的执行频率 v 3 v_3 v3。这三种执行频率遵循以下关系: v 1 < v 2 < v 3 v_1 < v_2 < v_3 v1<v2<v3,其中 v 2 v_2 v2是场景预测模块的执行频率。具体而言,在时间步 t t t,如果某个模块尚未完成对新请求的处理,它将首先返回先前的结果。

PIVOT-R的训练损失主要包括场景预测损失 L s c e n e L_{scene} Lscene和动作预测损失 L a c t L_{act} Lact。具体而言,对于场景预测损失 L s c e n e L_{scene} Lscene,我们遵循I-JEPA [1],计算预测航点状态 M ′ M' M与真实值 M M M之间特征的平均L2距离,其中 M M M使用预训练的CLIP图像编码器 E i m a g e E_{image} Eimage进行编码。对于动作预测损失 L a c t L_{act} Lact,我们遵循RT-1 [7],使用交叉熵损失计算预测动作 A ′ A' A与真实动作 A A A之间的损失。PIVOT-R的总损失为 L = L s c e n e + L a c t L = L_{scene} + L_{act} L=Lscene+Lact

6. 结论

在本文中,我们提出了PIVOT-R,这是一种以原始动作驱动的航点感知世界模型。PIVOT-R专注于原始动作的执行,预测未来的关键航点极大地提升了性能。它在SeaWave基准测试中取得了最先进的结果,实验也证明了其良好的鲁棒性。我们还采用异步层次执行器,以确保模型的执行速度足够快。此外,我们展示了PIVOT-R在高层次VLM的指导下,完成未见指令和任务的潜力。最后,我们还展示了PIVOT-R通过人类示范提升性能的能力。这些结果彰显了PIVOT-R的潜力。我们展示了PIVOT-R通过结合指令引导的原始动作来完成任务的能力,甚至是未见任务。然而,动作执行与指令有时并不一致。例如,如果需要“向左推”,机器人可能会执行“向前推”。因此,我们还需要加强高层次指令与底层动作之间的一致性,以便机器人能够真正按照我们的指令执行任务,甚至根据需求进行调整,就像一个真正的智能体一样。

7. 参考链接

https://mp.weixin.qq.com/s/Uz7WP0ZnCeNiCgHRD-SuLQ

http://www.lqws.cn/news/188533.html

相关文章:

  • 蓝桥春晚魔术(欧拉定理+快速幂)
  • 今日行情明日机会——20250606
  • 车牌识别技术解决方案
  • 大模型在脑梗塞后遗症风险预测及治疗方案制定中的应用研究
  • 使用VTK还是OpenGL集成到qt程序里哪个好?
  • 电脑桌面太单调,用Python写一个桌面小宠物应用。
  • 计算机视觉与深度学习 | 基于MATLAB的相机标定
  • 【 *p取出内容 a得到地址】
  • 服务器健康摩尔斯电码:深度解读S0-S5状态指示灯
  • 循环神经网络(RNN)
  • 增量式网络爬虫通用模板
  • Numpy5——数组的扩充(相加、复制、广播)排序,形状调整
  • RabbitMQ 学习
  • android debug包和release包的区别
  • EDA断供危机下的冷思考:中国芯片设计软件的破局之道优雅草卓伊凡
  • 关于dropbear ssh服务
  • MySQL基本操作
  • 构建SDK-C Docker镜像
  • 服务器中日志分析的作用都有哪些
  • Spring整合MyBatis的两种方式
  • 二分算法
  • 【免杀】C2免杀技术(十六)反沙箱/反调试
  • 【Linux】sed 命令详解及使用样例:流式文本编辑器
  • LLMControlsArm开源程序是DeepSeek 控制熊猫机械臂
  • react public/index.html文件使用env里面的变量
  • for(;;) 和while(1) 的无限循环用法对比,优缺点说明
  • Gerrit+repo管理git仓库,如果本地有新分支不能执行repo sync来同步远程所有修改,会报错
  • 【LeetCode】3309. 连接二进制表示可形成的最大数值(递归|回溯|位运算)
  • (nice!!!)(LeetCode每日一题)2434. 使用机器人打印字典序最小的字符串(贪心+栈)
  • 如何防止误删除rm (万恶之源)