Density-Insensitive Unsupervised Domain Adaption on 3D Object Detection

要約

タイトル:3Dオブジェクト検出における密度に敏感でない非教師あり領域適応
要約:

– 3Dポイントクラウドからのオブジェクト検出は、安全上の理由から自動運転において重要である。
– 多くの研究がこの課題に対して重要な進展を遂げてきたが、アノテーションのコストが高いことと、ドメイン間のギャップによる未知のデータへの転移性が低いことが課題である。
– このような課題を解決するための新しいアプローチとして、密度間のギャップに対処する密度に敏感でない領域適応フレームワークを提案する。
– このフレームワークでは、まずRandom Beam Re-Sampling(RBRS)を導入して、ソースドメインでトレーニングされた3D検出器の堅牢性を向上させて、異なるビーム密度に対応する。
– 次に、事前にトレーニングされた検出器をバックボーンモデルとして使用し、ラベルのないターゲットドメインデータを使用して、高品質の疑似ラベルを予測するタスク固有の師弟フレームワークを新しく設計した。
– さらに、密度に敏感性の特性をターゲットドメインに適応させるために、先生と生徒の2つのブランチに異なる密度の同じサンプルを与え、オブジェクトグラフアライメント(OGA)モジュールを提案して、クロス密度のオブジェクトの属性および関係の一貫性を強制する。
– 3つの広く採用されている3Dオブジェクト検出データセット上の実験結果から、この提案するドメイン適応方法が他の最新の方法よりも優れていることが示されている。コードはhttps://github.com/WoodwindHu/DTS}{https://github.com/WoodwindHu/DTS で利用可能である。

要約(オリジナル)

3D object detection from point clouds is crucial in safety-critical autonomous driving. Although many works have made great efforts and achieved significant progress on this task, most of them suffer from expensive annotation cost and poor transferability to unknown data due to the domain gap. Recently, few works attempt to tackle the domain gap in objects, but still fail to adapt to the gap of varying beam-densities between two domains, which is critical to mitigate the characteristic differences of the LiDAR collectors. To this end, we make the attempt to propose a density-insensitive domain adaption framework to address the density-induced domain gap. In particular, we first introduce Random Beam Re-Sampling (RBRS) to enhance the robustness of 3D detectors trained on the source domain to the varying beam-density. Then, we take this pre-trained detector as the backbone model, and feed the unlabeled target domain data into our newly designed task-specific teacher-student framework for predicting its high-quality pseudo labels. To further adapt the property of density-insensitivity into the target domain, we feed the teacher and student branches with the same sample of different densities, and propose an Object Graph Alignment (OGA) module to construct two object-graphs between the two branches for enforcing the consistency in both the attribute and relation of cross-density objects. Experimental results on three widely adopted 3D object detection datasets demonstrate that our proposed domain adaption method outperforms the state-of-the-art methods, especially over varying-density data. Code is available at https://github.com/WoodwindHu/DTS}{https://github.com/WoodwindHu/DTS.

arxiv情報

著者 Qianjiang Hu,Daizong Liu,Wei Hu
発行日 2023-04-19 06:33:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク