POEM: Polarization of Embeddings for Domain-Invariant Representations

要約

配布外のサンプルの処理は、ディープ ビジュアル モデルにとって長期にわたる課題です。
特に、ドメイン一般化 (DG) は、新しいドメインで一般化機能を備えたモデルをトレーニングすることを目的とした最も関連性の高いタスクの 1 つです。
既存の DG アプローチのほとんどは、ドメイン不変表現を見つけることでドメイン間の不一致を最小限に抑えるという同じ哲学を共有しています。
それに対して、POEMと呼ばれる私たちの提案手法は、ドメイン不変表現とドメイン固有表現を学習し、それらを二極化することにより、強力なDG機能を獲得します。
具体的には、POEM は、カテゴリ分類とドメイン分類のエンベディングを共学習し、その特徴間のコサイン類似性、つまりエンベディングの偏りを最小限に抑えて直交するように正規化します。
埋め込みを明確に分離することで、ドメイン不変の埋め込み内のドメイン固有の機能が抑制されます。
POEM の概念は、表現のドメイン堅牢性を強化する独自の方向性を示しており、既存の DG 手法と組み合わせると、大幅で一貫したパフォーマンスの向上がもたらされます。
PACS、VLCS、OfficeHome、TerraIncognita、および DomainNet データセットを使用した一般的な DG ベンチマークでの広範なシミュレーション結果は、POEM がカテゴリ分類の埋め込みをドメインに依存しないものにすることを実際に容易にすることを示しています。

要約(オリジナル)

Handling out-of-distribution samples is a long-lasting challenge for deep visual models. In particular, domain generalization (DG) is one of the most relevant tasks that aims to train a model with a generalization capability on novel domains. Most existing DG approaches share the same philosophy to minimize the discrepancy between domains by finding the domain-invariant representations. On the contrary, our proposed method called POEM acquires a strong DG capability by learning domain-invariant and domain-specific representations and polarizing them. Specifically, POEM cotrains category-classifying and domain-classifying embeddings while regularizing them to be orthogonal via minimizing the cosine-similarity between their features, i.e., the polarization of embeddings. The clear separation of embeddings suppresses domain-specific features in the domain-invariant embeddings. The concept of POEM shows a unique direction to enhance the domain robustness of representations that brings considerable and consistent performance gains when combined with existing DG methods. Extensive simulation results in popular DG benchmarks with the PACS, VLCS, OfficeHome, TerraIncognita, and DomainNet datasets show that POEM indeed facilitates the category-classifying embedding to be more domain-invariant.

arxiv情報

著者 Sang-Yeong Jo,Sung Whan Yoon
発行日 2023-05-22 13:54:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク