要約
私たちの研究では、これらのモダリティを使用して 6DoF オブジェクトの姿勢推定アルゴリズムを評価できるようにする、同期された RGB-D フレームとイベント データを含む YCB-Ev データセットを紹介します。
このデータセットは、YCB-Video (YCB-V) データセットで使用されたのと同じ 21 個の YCB オブジェクト \cite{calli2017yale} に対してグラウンド トゥルース 6DoF オブジェクト ポーズを提供し、データセット間で転送されたときのアルゴリズム パフォーマンスの評価を可能にします。
データセットは 21 個の同期されたイベントと RGB-D シーケンスで構成され、合計 7 分 43 分のビデオになります。
特に、これらのシーケンスのうち 12 個は、BOP チャレンジで使用された YCB-V サブセットと同じオブジェクト配置を特徴としています。
私たちのデータセットは、イベント ストリームのグラウンド トゥルース 6DoF ポーズ データを提供する最初のデータセットです。
さらに、新しい YCB-V シーケンスを使用して、BOP チャレンジ用に事前トレーニングされた 2 つの最先端のアルゴリズムの一般化機能を評価します。
提案されたデータセットは https://github.com/paroj/ycbev で入手できます。
要約(オリジナル)
Our work introduces the YCB-Ev dataset, which contains synchronized RGB-D frames and event data that enables evaluating 6DoF object pose estimation algorithms using these modalities. This dataset provides ground truth 6DoF object poses for the same 21 YCB objects \cite{calli2017yale} that were used in the YCB-Video (YCB-V) dataset, enabling the evaluation of algorithm performance when transferred across datasets. The dataset consists of 21 synchronized event and RGB-D sequences, amounting to a total of 7:43 minutes of video. Notably, 12 of these sequences feature the same object arrangement as the YCB-V subset used in the BOP challenge. Our dataset is the first to provide ground truth 6DoF pose data for event streams. Furthermore, we evaluate the generalization capabilities of two state-of-the-art algorithms, which were pre-trained for the BOP challenge, using our novel YCB-V sequences. The proposed dataset is available at https://github.com/paroj/ycbev.
arxiv情報
著者 | Pavel Rojtberg,Thomas Pöllabauer |
発行日 | 2023-09-15 15:42:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google