Viewer-Centred Surface Completion for Unsupervised Domain Adaptation in 3D Object Detection

要約

すべての自動運転データセットには、異なる地理的地域に由来し、さまざまなシナリオをカバーする、異なる構成のセンサーがあります。
その結果、3D 検出器は、トレーニング対象のデータセットにオーバーフィットする傾向があります。
これにより、検出器があるデータセットでトレーニングされ、別のデータセットでテストされると、精度が大幅に低下します。
LIDAR スキャン パターンの違いが、このパフォーマンス低下の大きな要因となっていることがわかります。
監視されていないドメイン適応フレームワークである SEE 内で対象オブジェクトの表面を完成させるために、新しい視聴者中心の表面完成ネットワーク (VCN) を設計することにより、私たちのアプローチである SEE-VCN でこれに対処します。
SEE-VCN を使用すると、データセット全体でオブジェクトの統一された表現を取得できるため、ネットワークはスキャン パターンにオーバーフィットするのではなく、ジオメトリの学習に集中できます。
ドメイン不変表現を採用することにより、SEE-VCN は、新しいスキャン パターンの 3D 検出を取得するために注釈や再トレーニングを必要としないマルチターゲット ドメイン適応アプローチとして分類できます。
広範な実験を通じて、私たちのアプローチが複数のドメイン適応設定で以前のドメイン適応方法よりも優れていることを示しています。
私たちのコードとデータは、https://github.com/darrenjkt/SEE-VCN で入手できます。

要約(オリジナル)

Every autonomous driving dataset has a different configuration of sensors, originating from distinct geographic regions and covering various scenarios. As a result, 3D detectors tend to overfit the datasets they are trained on. This causes a drastic decrease in accuracy when the detectors are trained on one dataset and tested on another. We observe that lidar scan pattern differences form a large component of this reduction in performance. We address this in our approach, SEE-VCN, by designing a novel viewer-centred surface completion network (VCN) to complete the surfaces of objects of interest within an unsupervised domain adaptation framework, SEE. With SEE-VCN, we obtain a unified representation of objects across datasets, allowing the network to focus on learning geometry, rather than overfitting on scan patterns. By adopting a domain-invariant representation, SEE-VCN can be classed as a multi-target domain adaptation approach where no annotations or re-training is required to obtain 3D detections for new scan patterns. Through extensive experiments, we show that our approach outperforms previous domain adaptation methods in multiple domain adaptation settings. Our code and data are available at https://github.com/darrenjkt/SEE-VCN.

arxiv情報

著者 Darren Tsai,Julie Stephany Berrio,Mao Shan,Eduardo Nebot,Stewart Worrall
発行日 2022-09-14 04:22:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク