要約
教師なしドメイン適応 (UDA) は、明るい条件下での物体検出において大幅な進歩を示しました。
しかし、そのパフォーマンスは視界の悪い状況、特に夜間では著しく低下し、信号対雑音比 (SNR) が低い状況での適応性だけでなく、自動運転車両の信頼性と効率にも課題をもたらしています。
この問題に対処するために、グローバル-ローカル変換 (GLT) とプロキシベースのターゲット一貫性 (PTC) メカニズムを革新的に採用する \textbf{Co}operative \textbf{S}tudents (\textbf{CoS}) フレームワークを提案します。
昼と夜のシナリオにおける空間的一貫性を効果的に捕捉し、コンテキスト間での重要なドメインの変化を橋渡しします。
これに基づいて、適応型 IoU-informed Thresholding (AIT) モジュールをさらに考案し、潜在的な真陽性の見落としを徐々に回避し、ターゲット ドメイン内の潜在的な情報を充実させます。
包括的な実験では、CoS が視界の悪い状況で UDA のパフォーマンスを本質的に強化し、現在の最先端技術を上回り、BDD100K、SHIFT、および
それぞれ ACDC データセット。
コードは https://github.com/jichengyuan/Cooperitive_Students で入手できます。
要約(オリジナル)
Unsupervised Domain Adaptation (UDA) has shown significant advancements in object detection under well-lit conditions; however, its performance degrades notably in low-visibility scenarios, especially at night, posing challenges not only for its adaptability in low signal-to-noise ratio (SNR) conditions but also for the reliability and efficiency of automated vehicles. To address this problem, we propose a \textbf{Co}operative \textbf{S}tudents (\textbf{CoS}) framework that innovatively employs global-local transformations (GLT) and a proxy-based target consistency (PTC) mechanism to capture the spatial consistency in day- and night-time scenarios effectively, and thus bridge the significant domain shift across contexts. Building upon this, we further devise an adaptive IoU-informed thresholding (AIT) module to gradually avoid overlooking potential true positives and enrich the latent information in the target domain. Comprehensive experiments show that CoS essentially enhanced UDA performance in low-visibility conditions and surpasses current state-of-the-art techniques, achieving an increase in mAP of 3.0\%, 1.9\%, and 2.5\% on BDD100K, SHIFT, and ACDC datasets, respectively. Code is available at https://github.com/jichengyuan/Cooperitive_Students.
arxiv情報
著者 | Jicheng Yuan,Anh Le-Tuan,Manfred Hauswirth,Danh Le-Phuoc |
発行日 | 2024-05-08 16:54:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google