Learning Attentive Neural Processes for Planning with Pushing Actions

要約

私たちの目標は、ロボットがテーブルトップアクションのシーケンスを計画して、未知の物理的特性を持つブロックをテーブル上の望ましい目標ポーズに押し込むことを可能にすることです。
ロボットがプッシュの結果を観察できるが、ダイナミクスを支配するブロックの物理的特性は不明のままである場合、部分的に観測可能なマルコフ決定プロセス(POMDP)の構成モデルを学習することにより、この問題にアプローチします。
プッシュ問題は、州の推定の課題により解決するのが難しいPOMDPです。
物理的特性は、結果と非線形の関係を持ち、信念を表すために粒子フィルターなどの計算上の高価な方法を必要とします。
気配りのある神経プロセスアーキテクチャを活用して、粒子フィルターを、作用の履歴を考慮して物理的特性に対する推論計算を学習するニューラルネットワークに置き換えることを提案します。
この神経プロセスは、二重進行性拡大(NPT-DPW)を備えた神経プロセスツリーとして計画に統合されています。
シミュレーション結果は、NPT-DPWが、複雑なプッシュシナリオであっても、従来の粒子フィルター法よりも速い計画を生成することを示しています。

要約(オリジナル)

Our goal is to enable robots to plan sequences of tabletop actions to push a block with unknown physical properties to a desired goal pose on the table. We approach this problem by learning the constituent models of a Partially-Observable Markov Decision Process (POMDP), where the robot can observe the outcome of a push, but the physical properties of the block that govern the dynamics remain unknown. The pushing problem is a difficult POMDP to solve due to the challenge of state estimation. The physical properties have a nonlinear relationship with the outcomes, requiring computationally expensive methods, such as particle filters, to represent beliefs. Leveraging the Attentive Neural Process architecture, we propose to replace the particle filter with a neural network that learns the inference computation over the physical properties given a history of actions. This Neural Process is integrated into planning as the Neural Process Tree with Double Progressive Widening (NPT-DPW). Simulation results indicate that NPT-DPW generates more effective plans faster than traditional particle filter methods, even in complex pushing scenarios.

arxiv情報

著者 Atharv Jain,Seiji Shaw,Nicholas Roy
発行日 2025-04-24 20:29:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク