Compositional Servoing by Recombining Demonstrations

要約

画像入力からの学習ベースの操作ポリシーでは、タスク転送機能が弱いことがよくあります。
対照的に、ビジュアル サーボ手法では、わずかなデモンストレーションのみで、高精度のシナリオで効率的なタスク転送が可能になります。
この研究では、ビジュアル サーボ タスクをグラフ トラバーサルとして定式化するフレームワークを紹介します。
私たちの方法は、ビジュアル サーボの堅牢性を拡張するだけでなく、いくつかのタスク固有のデモンストレーションに基づいてマルチタスク機能も可能にします。
既存のデモンストレーションを分割し、再結合することでデモンストレーション グラフを構築します。
推論ケースでデモンストレーション グラフをトラバースするために、特定のタスクに最適なデモンストレーションを選択するのに役立つ類似度関数を利用します。
これにより、グラフ内の最短パスを計算できます。
最終的に、デモンストレーションを再結合すると、タスクごとの成功率が高くなることがわかります。
私たちは、私たちのアプローチの有効性を実証する広範なシミュレーションと実際の実験結果を紹介します。

要約(オリジナル)

Learning-based manipulation policies from image inputs often show weak task transfer capabilities. In contrast, visual servoing methods allow efficient task transfer in high-precision scenarios while requiring only a few demonstrations. In this work, we present a framework that formulates the visual servoing task as graph traversal. Our method not only extends the robustness of visual servoing, but also enables multitask capability based on a few task-specific demonstrations. We construct demonstration graphs by splitting existing demonstrations and recombining them. In order to traverse the demonstration graph in the inference case, we utilize a similarity function that helps select the best demonstration for a specific task. This enables us to compute the shortest path through the graph. Ultimately, we show that recombining demonstrations leads to higher task-respective success. We present extensive simulation and real-world experimental results that demonstrate the efficacy of our approach.

arxiv情報

著者 Max Argus,Abhijeet Nayak,Martin Büchner,Silvio Galesso,Abhinav Valada,Thomas Brox
発行日 2023-10-06 14:16:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク