要約
この研究では、確立された高密度の自動運転データセット間での適応に主に焦点を当ててきた、LiDAR ベースの 3D 物体検出に関する既存の教師なしドメイン適応アプローチのギャップに対処します。
私たちは、よりまばらな点群に焦点を当て、さまざまな視点からシナリオをキャプチャします。道路上の車両だけでなく、大幅に異なる環境条件やセンサー構成に遭遇する歩道上の移動ロボットからも同様です。
3D オブジェクト検出のための教師なし敵対的ドメイン適応 (UADA3D) を導入します。
UADA3D は、事前トレーニングされたソース モデルや教師と生徒のアーキテクチャには依存しません。
代わりに、敵対的なアプローチを使用して、ドメイン不変の特徴を直接学習します。
私たちはさまざまな適応シナリオでその有効性を実証し、自動運転車と移動ロボットの両方の領域で大幅な改善が見られることを示しています。
私たちのコードはオープンソースであり、間もなく公開される予定です。
要約(オリジナル)
In this study, we address a gap in existing unsupervised domain adaptation approaches on LiDAR-based 3D object detection, which have predominantly concentrated on adapting between established, high-density autonomous driving datasets. We focus on sparser point clouds, capturing scenarios from different perspectives: not just from vehicles on the road but also from mobile robots on sidewalks, which encounter significantly different environmental conditions and sensor configurations. We introduce Unsupervised Adversarial Domain Adaptation for 3D Object Detection (UADA3D). UADA3D does not depend on pre-trained source models or teacher-student architectures. Instead, it uses an adversarial approach to directly learn domain-invariant features. We demonstrate its efficacy in various adaptation scenarios, showing significant improvements in both self-driving car and mobile robot domains. Our code is open-source and will be available soon.
arxiv情報
著者 | Maciej K Wozniak,Mattias Hansson,Marko Thiel,Patric Jensfelt |
発行日 | 2024-03-28 09:47:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google