要約
教師なしドメイン適応 (UDA) は、データ分布が異なる特有のターゲット ドメインにドメイン内モデルを拡張するための機械学習において極めて重要な形式です。
これまでの研究のほとんどは、ドメイン間の転送可能性を捉えることに重点を置いていますが、豊富なドメイン内構造はほとんど見落とされており、経験的には識別性がさらに悪化します。
この研究では、トレードオフに取り組むための新しいグラフ SPectral Alignment (SPA) フレームワークを導入します。
私たちの方法の核心は次のように簡潔に要約されます。(i) – DA 問題をグラフ プリミティブにキャストすることにより、SPA は固有空間内のドメイン グラフを位置合わせするための新しいスペクトル正則化子を備えた粗いグラフ位置合わせメカニズムを構成します。
(ii)-ターゲットドメインでの識別性を高めるために、新しい近隣認識自己トレーニングメカニズムに基づいて、きめの細かいメッセージ伝播モジュールをさらに開発します。
標準化されたベンチマークでは、SPA の広範な実験により、そのパフォーマンスが既存の最先端の DA 手法を上回っていることが実証されています。
高密度モデル分析と組み合わせると、私たちのアプローチは実際に優れた有効性、堅牢性、識別可能性、および伝達可能性を備えていると結論付けられます。
コードとデータは https://github.com/CrownX/SPA から入手できます。
要約(オリジナル)
Unsupervised domain adaptation (UDA) is a pivotal form in machine learning to extend the in-domain model to the distinctive target domains where the data distributions differ. Most prior works focus on capturing the inter-domain transferability but largely overlook rich intra-domain structures, which empirically results in even worse discriminability. In this work, we introduce a novel graph SPectral Alignment (SPA) framework to tackle the tradeoff. The core of our method is briefly condensed as follows: (i)-by casting the DA problem to graph primitives, SPA composes a coarse graph alignment mechanism with a novel spectral regularizer towards aligning the domain graphs in eigenspaces; (ii)-we further develop a fine-grained message propagation module — upon a novel neighbor-aware self-training mechanism — in order for enhanced discriminability in the target domain. On standardized benchmarks, the extensive experiments of SPA demonstrate that its performance has surpassed the existing cutting-edge DA methods. Coupled with dense model analysis, we conclude that our approach indeed possesses superior efficacy, robustness, discriminability, and transferability. Code and data are available at: https://github.com/CrownX/SPA.
arxiv情報
著者 | Zhiqing Xiao,Haobo Wang,Ying Jin,Lei Feng,Gang Chen,Fei Huang,Junbo Zhao |
発行日 | 2023-10-27 08:40:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google