Domain Adaptive Imitation Learning with Visual Observation

要約

本論文では、視覚的観察を用いた領域適応的模倣学習について考察する。この場合、対象領域のエージェントは、ソース領域の専門家の実演を観察することにより、タスクの実行を学習する。領域適応的模倣学習は、視覚的な感覚データを受け取ったロボットが、他のロボットを異なる角度から視覚的に観察したり、異なる形状のロボットを観察したりすることで、動きを模倣する必要があるような実用的なシナリオで生じる。視覚的観察を用いた領域横断的模倣学習における領域シフトを克服するために、我々は、二重特徴抽出と画像再構成に基づき、学習者の学習に使用可能な入力観察から領域に依存しない行動特徴を抽出するための新しいフレームワークを提案する。実証的な結果から、本アプローチは、ドメインシフトを伴う視覚観察からの模倣学習において、従来のアルゴリズムを凌駕することが実証された。

要約(オリジナル)

In this paper, we consider domain-adaptive imitation learning with visual observation, where an agent in a target domain learns to perform a task by observing expert demonstrations in a source domain. Domain adaptive imitation learning arises in practical scenarios where a robot, receiving visual sensory data, needs to mimic movements by visually observing other robots from different angles or observing robots of different shapes. To overcome the domain shift in cross-domain imitation learning with visual observation, we propose a novel framework for extracting domain-independent behavioral features from input observations that can be used to train the learner, based on dual feature extraction and image reconstruction. Empirical results demonstrate that our approach outperforms previous algorithms for imitation learning from visual observation with domain shift.

arxiv情報

著者 Sungho Choi,Seungyul Han,Woojun Kim,Jongseong Chae,Whiyoung Jung,Youngchul Sung
発行日 2023-12-01 12:48:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク