Shape-biased Texture Agnostic Representations for Improved Textureless and Metallic Object Detection and 6D Pose Estimation

要約

機械学習の最近の進歩は、物体検出と 6D 姿勢推定に大きな恩恵をもたらしました。
ただし、テクスチャのない金属オブジェクトは、視覚的な手がかりがほとんどないことと CNN のテクスチャ バイアスにより、依然として大きな課題を抱えています。
彼の問題に対処するために、CNN トレーニングに形状バイアスを誘発する戦略を提案します。
特に、データのレンダリング中にオブジェクトの表面に適用されるテクスチャをランダム化することで、一貫したテクスチャの手がかりのないトレーニング データを作成します。
この方法論により、既存のデータ レンダリング エンジンへのシームレスな統合が可能になり、データ レンダリングとネットワーク トレーニングの計算オーバーヘッドが無視できる程度になります。
私たちの調査結果は、ランダム化されたテクスチャリングによって引き起こされる形状の偏りが、スタイル転送を使用する既存のアプローチよりも改善されることを示しています。
3 つの検出器と 2 つの姿勢推定器を使用して評価します。
最新のオブジェクト検出器および一般的な姿勢推定では、テクスチャのないオブジェクトや金属オブジェクトの推定精度が向上しています。
さらに、画像ノイズや強い照明変化が存在する場合でも、私たちのアプローチにより姿勢推定の精度が向上することを示します。
コードとデータセットは、github.com/hoenigpeter/randomized_texturing で公開されています。

要約(オリジナル)

Recent advances in machine learning have greatly benefited object detection and 6D pose estimation. However, textureless and metallic objects still pose a significant challenge due to few visual cues and the texture bias of CNNs. To address his issue, we propose a strategy for inducing a shape bias to CNN training. In particular, by randomizing textures applied to object surfaces during data rendering, we create training data without consistent textural cues. This methodology allows for seamless integration into existing data rendering engines, and results in negligible computational overhead for data rendering and network training. Our findings demonstrate that the shape bias we induce via randomized texturing, improves over existing approaches using style transfer. We evaluate with three detectors and two pose estimators. For the most recent object detector and for pose estimation in general, estimation accuracy improves for textureless and metallic objects. Additionally we show that our approach increases the pose estimation accuracy in the presence of image noise and strong illumination changes. Code and datasets are publicly available at github.com/hoenigpeter/randomized_texturing.

arxiv情報

著者 Peter Hönig,Stefan Thalhammer,Jean-Baptiste Weibel,Matthias Hirschmanner,Markus Vincze
発行日 2024-07-23 14:18:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク