要約
画像入力からの学習ベースの操作ポリシーでは、タスク転送機能が弱いことがよくあります。
対照的に、ビジュアル サーボ手法では、わずかなデモンストレーションのみで、高精度のシナリオで効率的なタスク転送が可能になります。
この研究では、ビジュアル サーボ タスクをグラフ トラバーサルとして定式化するフレームワークを紹介します。
私たちの方法は、ビジュアル サーボの堅牢性を拡張するだけでなく、いくつかのタスク固有のデモンストレーションに基づいてマルチタスク機能も可能にします。
既存のデモンストレーションを分割し、再結合することでデモンストレーション グラフを構築します。
推論ケースでデモンストレーション グラフをトラバースするために、特定のタスクに最適なデモンストレーションを選択するのに役立つ類似度関数を利用します。
これにより、グラフ内の最短パスを計算できます。
最終的に、デモンストレーションを再結合すると、タスクごとの成功率が高くなることがわかります。
私たちは、私たちのアプローチの有効性を実証する広範なシミュレーションと実際の実験結果を紹介します。
要約(オリジナル)
Learning-based manipulation policies from image inputs often show weak task transfer capabilities. In contrast, visual servoing methods allow efficient task transfer in high-precision scenarios while requiring only a few demonstrations. In this work, we present a framework that formulates the visual servoing task as graph traversal. Our method not only extends the robustness of visual servoing, but also enables multitask capability based on a few task-specific demonstrations. We construct demonstration graphs by splitting existing demonstrations and recombining them. In order to traverse the demonstration graph in the inference case, we utilize a similarity function that helps select the best demonstration for a specific task. This enables us to compute the shortest path through the graph. Ultimately, we show that recombining demonstrations leads to higher task-respective success. We present extensive simulation and real-world experimental results that demonstrate the efficacy of our approach.
arxiv情報
著者 | Max Argus,Abhijeet Nayak,Martin Büchner,Silvio Galesso,Abhinav Valada,Thomas Brox |
発行日 | 2023-10-06 14:16:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google