AWADA: Attention-Weighted Adversarial Domain Adaptation for Object Detection

要約

オブジェクト検出ネットワークは目覚ましいパフォーマンス レベルに達していますが、特定のアプリケーションに適したデータが不足しているため、実際にはパフォーマンスが制限されることがよくあります。
通常、トレーニング タスクをサポートするために追加のデータ ソースが使用されます。
ただし、これらでは、異なるデータ ソース間のドメイン ギャップがディープ ラーニングに課題をもたらします。
GAN ベースのイメージからイメージへのスタイル転送は、ドメイン ギャップを縮小するために一般的に適用されますが、不安定であり、オブジェクト検出タスクから分離されています。
スタイル変換と検出タスクの間にフィードバック ループを作成するための注意加重敵対的ドメイン適応フレームワークである AWADA を提案します。
オブジェクト検出器の提案から前景オブジェクトのアテンション マップを構築することにより、変換を前景オブジェクト領域に集中させ、スタイル転送トレーニングを安定させます。
広範な実験とアブレーション研究において、AWADA が、合成から実物への、悪天候、クロスカメラ適応などのタスクで一般的に使用されるベンチマークで、最先端の教師なしドメイン適応オブジェクト検出パフォーマンスに到達することを示しています。

要約(オリジナル)

Object detection networks have reached an impressive performance level, yet a lack of suitable data in specific applications often limits it in practice. Typically, additional data sources are utilized to support the training task. In these, however, domain gaps between different data sources pose a challenge in deep learning. GAN-based image-to-image style-transfer is commonly applied to shrink the domain gap, but is unstable and decoupled from the object detection task. We propose AWADA, an Attention-Weighted Adversarial Domain Adaptation framework for creating a feedback loop between style-transformation and detection task. By constructing foreground object attention maps from object detector proposals, we focus the transformation on foreground object regions and stabilize style-transfer training. In extensive experiments and ablation studies, we show that AWADA reaches state-of-the-art unsupervised domain adaptation object detection performance in the commonly used benchmarks for tasks such as synthetic-to-real, adverse weather and cross-camera adaptation.

arxiv情報

著者 Maximilian Menke,Thomas Wenzel,Andreas Schwung
発行日 2022-08-31 07:20:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T45, cs.CV パーマリンク