Transformer-based deep imitation learning for dual-arm robot manipulation

要約

深い模倣学習は、環境モデルと事前にプログラムされたロボットの動作を必要としないため、器用な操作タスクの解決に有望です。
ただし、デュアルアーム操作タスクへの適用は依然として困難です。
デュアルアーム操作セットアップでは、追加のロボットマニピュレーターによって引き起こされる状態寸法の数が増加し、気晴らしを引き起こし、ニューラルネットワークのパフォーマンスが低下します。
この問題に対処し、順次入力内の要素間の依存関係を計算し、重要な要素に焦点を当てる自己関節メカニズムを使用します。
自己関節アーキテクチャのバリアントである変圧器は、現実世界の二重腕操作タスクを解決するために、深い模倣学習に適用されます。
提案された方法は、実際のロボットを使用してデュアルアーム操作タスクでテストされています。
実験結果は、変圧器ベースの深い模倣学習アーキテクチャが感覚入力の中で重要な特徴に注意を払うことができることを実証し、したがって、自己触媒メカニズムなしのベースラインアーキテクチャと比較すると、気晴らしを軽減し、操作性能を改善します。
これと関連する作品のデータは、https://sites.google.com/view/multi-task-fineで入手できます。

要約(オリジナル)

Deep imitation learning is promising for solving dexterous manipulation tasks because it does not require an environment model and pre-programmed robot behavior. However, its application to dual-arm manipulation tasks remains challenging. In a dual-arm manipulation setup, the increased number of state dimensions caused by the additional robot manipulators causes distractions and results in poor performance of the neural networks. We address this issue using a self-attention mechanism that computes dependencies between elements in a sequential input and focuses on important elements. A Transformer, a variant of self-attention architecture, is applied to deep imitation learning to solve dual-arm manipulation tasks in the real world. The proposed method has been tested on dual-arm manipulation tasks using a real robot. The experimental results demonstrated that the Transformer-based deep imitation learning architecture can attend to the important features among the sensory inputs, therefore reducing distractions and improving manipulation performance when compared with the baseline architecture without the self-attention mechanisms. Data from this and related works are available at: https://sites.google.com/view/multi-task-fine.

arxiv情報

著者 Heecheol Kim,Yoshiyuki Ohmura,Yasuo Kuniyoshi
発行日 2025-05-21 23:09:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク