Bi3D: Bi-domain Active Learning for Cross-domain 3D Object Detection

要約

教師なしドメイン適応 (UDA) 手法は、最近、3D クロスドメイン タスクで調査されています。
予備的な進歩はありましたが、UDA ベースの 3D モデルと、完全にアノテーションが付けられたターゲット ドメインでトレーニングされた教師ありモデルとの間のパフォーマンス ギャップは依然として大きいです。
これにより、部分的ではあるが重要なターゲット データを選択し、それらを最小限のコストでラベル付けして、高性能と低アノテーション コストの間の適切なトレードオフを実現することを検討するようになります。
この目的のために、クロスドメイン3Dオブジェクト検出タスクを解決するために、Biドメインアクティブラーニングアプローチ、つまりBi3Dを提案します。
Bi3D は、最初にドメインを意識したソース サンプリング戦略を開発します。これは、ソース ドメインからターゲット ドメインのようなサンプルを識別して、無関係なソース データによってモデルが干渉されるのを回避します。
次に、多様性に基づくターゲット サンプリング戦略が開発されます。これは、ターゲット ドメインの最も有益なサブセットを選択して、可能な限り少ないアノテーション バジェットを使用して、ターゲット ドメインへのモデルの適応性を向上させます。
クロス LiDAR ビーム、クロスカントリー、クロスセンサーなどの典型的なクロスドメイン適応シナリオで実験が行われ、Bi3D は UDA ベースの作業 (84.29%) と比較して有望なターゲット ドメイン検出精度 (KITTI で 89.63%) を達成します。
、ラベル付けされたターゲット ドメインの完全なセットでトレーニングされた検出器をも上回ります (88.98%)。
コードは https://github.com/PJLabADG/3DTrans で入手できます。

要約(オリジナル)

Unsupervised Domain Adaptation (UDA) technique has been explored in 3D cross-domain tasks recently. Though preliminary progress has been made, the performance gap between the UDA-based 3D model and the supervised one trained with fully annotated target domain is still large. This motivates us to consider selecting partial-yet-important target data and labeling them at a minimum cost, to achieve a good trade-off between high performance and low annotation cost. To this end, we propose a Bi-domain active learning approach, namely Bi3D, to solve the cross-domain 3D object detection task. The Bi3D first develops a domainness-aware source sampling strategy, which identifies target-domain-like samples from the source domain to avoid the model being interfered by irrelevant source data. Then a diversity-based target sampling strategy is developed, which selects the most informative subset of target domain to improve the model adaptability to the target domain using as little annotation budget as possible. Experiments are conducted on typical cross-domain adaptation scenarios including cross-LiDAR-beam, cross-country, and cross-sensor, where Bi3D achieves a promising target-domain detection accuracy (89.63% on KITTI) compared with UDAbased work (84.29%), even surpassing the detector trained on the full set of the labeled target domain (88.98%). Our code is available at: https://github.com/PJLabADG/3DTrans.

arxiv情報

著者 Jiakang Yuan,Bo Zhang,Xiangchao Yan,Tao Chen,Botian Shi,Yikang Li,Yu Qiao
発行日 2023-03-10 12:38:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク