Multi-view Adversarial Discriminator: Mine the Non-causal Factors for Object Detection in Unseen Domains

要約

タイトル:未知の領域での物体検出のために因果的でない要因を探るためのMulti-view Adversarial Discriminator

要約:

– 学習データのドメインシフトは現実世界の物体検出モデルの性能を低下させている。
– 共通のドメイン非依存特徴をソースドメインからドメイン対抗学習(DAL)を介して分離して獲得することで、ドメインシフトの影響を軽減する多くの先行研究がある。
– しかしながら、因果的なメカニズムに着想を得て、以前の方法は共通の特徴に含まれる意味のない因果関係のない要因を無視していると発見した。
– これはDALの単一視点の性質によるものである。
– 本研究では、複数の視点での敵対的なトレーニングによって、ソースドメインから共通の特徴から非因果的要因を除去するアイデアを提案する。
– これは、データの多モード構造により、これらの意味のない因果関係のない要因が他の潜在的な空間(視点)でも重要である場合があるためである。
– 要約すると、我々はSpurious Correlations Generator(SCG)とMulti-View Domain Classifier(MVDC)から構成されるMulti-view Adversarial Discriminator(MAD)ベースのドメイン汎化モデルを提案している。
– これは、SCGがランダムな拡張によってソースドメインの多様性を増加させ、MVDCが特徴を複数の潜在空間にマップすることで、因果的でない要因が除去され、ドメイン非依存特徴が精製される。
– 6つのベンチマークでの広範な実験で、MADが最先端の性能を発揮していることが示された。

要約(オリジナル)

Domain shift degrades the performance of object detection models in practical applications. To alleviate the influence of domain shift, plenty of previous work try to decouple and learn the domain-invariant (common) features from source domains via domain adversarial learning (DAL). However, inspired by causal mechanisms, we find that previous methods ignore the implicit insignificant non-causal factors hidden in the common features. This is mainly due to the single-view nature of DAL. In this work, we present an idea to remove non-causal factors from common features by multi-view adversarial training on source domains, because we observe that such insignificant non-causal factors may still be significant in other latent spaces (views) due to the multi-mode structure of data. To summarize, we propose a Multi-view Adversarial Discriminator (MAD) based domain generalization model, consisting of a Spurious Correlations Generator (SCG) that increases the diversity of source domain by random augmentation and a Multi-View Domain Classifier (MVDC) that maps features to multiple latent spaces, such that the non-causal factors are removed and the domain-invariant features are purified. Extensive experiments on six benchmarks show our MAD obtains state-of-the-art performance.

arxiv情報

著者 Mingjun Xu,Lingyun Qin,Weijie Chen,Shiliang Pu,Lei Zhang
発行日 2023-04-06 09:20:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク