DR-WLC: Dimensionality Reduction cognition for object detection and pose estimation by Watching, Learning and Checking

要約

物体の検出と姿勢の推定は、ロボット工学や自動運転では困難なタスクです。
既存の物体検出および姿勢推定方法は、ほとんどの場合、トレーニングに同じ次元のデータを採用しています。
たとえば、通常、2D オブジェクトの検出には大量の 2D 注釈データが必要であり、コストも高くなります。
高次元の情報を使用して低次元のタスクを監視することは、データセットのサイズを縮小するための実行可能な方法です。
この作業では、物体検出と姿勢推定の両方のタスクを同時に実行できる次元削減認知モデルである DR-WLC が提案されています。
モデルには、オブジェクトの 3D モデルと、ラベル付けされていない環境画像 (オブジェクトの有無にかかわらず) のみがトレーニングを完了するために必要です。
さらに、3D モデルと 2D オブジェクト検出タスクの間の関係を構築するために、バウンディング ボックス生成戦略も提案されています。
実験は、私たちの方法が手動の注釈なしで作業を修飾できること、および実際のアプリケーションに簡単に展開できることを示しています。
ソース コードは https://github.com/IN2-ViAUn/DR-WLC にあります。

要約(オリジナル)

Object detection and pose estimation are difficult tasks in robotics and autonomous driving. Existing object detection and pose estimation methods mostly adopt the same-dimensional data for training. For example, 2D object detection usually requires a large amount of 2D annotation data with high cost. Using high-dimensional information to supervise lower-dimensional tasks is a feasible way to reduce datasets size. In this work, the DR-WLC, a dimensionality reduction cognitive model, which can perform both object detection and pose estimation tasks at the same time is proposed. The model only requires 3D model of objects and unlabeled environment images (with or without objects) to finish the training. In addition, a bounding boxes generation strategy is also proposed to build the relationship between 3D model and 2D object detection task. Experiments show that our method can qualify the work without any manual annotations and it is easy to deploy for practical applications. Source code is at https://github.com/IN2-ViAUn/DR-WLC.

arxiv情報

著者 Yu Gao,Xi Xu,Tianji Jiang,Siyuan Chen,Yi Yang,Yufeng Yue,Mengyin Fu
発行日 2023-01-17 15:08:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク