要約
タイトル:Imitrob:6Dオブジェクトポーズエスティメーターのトレーニングと評価のための模倣学習データセット
要約:
– この論文は、標準的なRGBカメラによってキャプチャされたタスクデモンストレーション中の手持ちのツールの6Dポーズ推定の方法をトレーニングおよび評価するためのデータセットを紹介しています。
– 6Dポーズ推定技術は大幅に進歩していますが、通常は操縦手によって部分的に遮蔽されたオブジェクトの場合、性能が制限されることが一般的です。これは模倣学習の一般的なケースであるため、この問題を克服するために、堅牢な6Dポーズ推定方法の開発を可能にするデータセットの不足があります。この問題を解決するために、Imitrobと呼ばれる新しいデータセットを収集しました。
– Imitrobは、人間がツールを持ってタスクを実行する模倣学習などのアプリケーションに向けた6Dポーズ推定を目的とした9つの異なるツールと12の操作タスクの画像シーケンスを含みます。2つのカメラ視点、4人の被験者、左右の手を使用して、各画像にはHTC Viveモーショントラッキングデバイスによって得られた正確な6Dオブジェクトポーズのグランドトゥルーデータが付属しています。
– このデータセットの使用は、最近の6Dオブジェクトポーズ推定方法(DOPE)をさまざまなセットアップでトレーニングおよび評価することによって実証されています。
要約(オリジナル)
This paper introduces a dataset for training and evaluating methods for 6D pose estimation of hand-held tools in task demonstrations captured by a standard RGB camera. Despite the significant progress of 6D pose estimation methods, their performance is usually limited for heavily occluded objects, which is a common case in imitation learning, where the object is typically partially occluded by the manipulating hand. Currently, there is a lack of datasets that would enable the development of robust 6D pose estimation methods for these conditions. To overcome this problem, we collect a new dataset (Imitrob) aimed at 6D pose estimation in imitation learning and other applications where a human holds a tool and performs a task. The dataset contains image sequences of nine different tools and twelve manipulation tasks with two camera viewpoints, four human subjects, and left/right hand. Each image is accompanied by an accurate ground truth measurement of the 6D object pose obtained by the HTC Vive motion tracking device. The use of the dataset is demonstrated by training and evaluating a recent 6D object pose estimation method (DOPE) in various setups.
arxiv情報
著者 | Jiri Sedlar,Karla Stepanova,Radoslav Skoviera,Jan K. Behrens,Matus Tuna,Gabriela Sejnova,Josef Sivic,Robert Babuska |
発行日 | 2023-04-05 17:30:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI