GLC++: Source-Free Universal Domain Adaptation through Global-Local Clustering and Contrastive Affinity Learning

要約

ディープ ニューラル ネットワークは、共変量やカテゴリのシフトの下では最適以下のパフォーマンスを示すことがよくあります。
ソースフリー ドメイン アダプテーション (SFDA) は、このジレンマに対する有望な解決策を提供しますが、ほとんどの SFDA アプローチはクローズドセット シナリオに限定されています。
この論文では、共通カテゴリに属する​​「既知」データを正確に分類し、ターゲットのプライベートな「未知」データからそれらを分離することを目的としたソースフリーユニバーサルドメインアダプテーション(SF-UniDA)について検討します。
我々は、新しいグローバル アンド ローカル クラスタリング (GLC) 手法を提案します。この手法は、ターゲット クラス間を識別するための適応的な 1 対全グローバル クラスタリング アルゴリズムで構成され、負の転移を軽減するローカル k-NN クラスタリング戦略によって補完されます。
有効性にもかかわらず、固有のクローズドセット ソース アーキテクチャにより、「未知の」データが均一に扱われることになり、明確な「未知の」カテゴリの識別が妨げられます。
これに対処するために、私たちは GLC を GLC++ に進化させ、対照的なアフィニティ学習戦略を統合します。
複数のベンチマークとカテゴリー移行シナリオにわたって、GLC と GLC++ の優位性を検証します。
注目すべきことに、最も困難なオープン部分セットのシナリオでは、GLC と GLC++ は、VisDA の H スコアでそれぞれ GATE を 16.7% と 18.6% 上回っています。
GLC++ は、Office-Home のオープンセット シナリオにおいて、GLC の新しいカテゴリのクラスタリング精度を 4.3% 向上させます。
さらに、導入された対照的な学習戦略は GLC を強化するだけでなく、既存の方法論を大幅に促進します。

要約(オリジナル)

Deep neural networks often exhibit sub-optimal performance under covariate and category shifts. Source-Free Domain Adaptation (SFDA) presents a promising solution to this dilemma, yet most SFDA approaches are restricted to closed-set scenarios. In this paper, we explore Source-Free Universal Domain Adaptation (SF-UniDA) aiming to accurately classify ‘known’ data belonging to common categories and segregate them from target-private ‘unknown’ data. We propose a novel Global and Local Clustering (GLC) technique, which comprises an adaptive one-vs-all global clustering algorithm to discern between target classes, complemented by a local k-NN clustering strategy to mitigate negative transfer. Despite the effectiveness, the inherent closed-set source architecture leads to uniform treatment of ‘unknown’ data, impeding the identification of distinct ‘unknown’ categories. To address this, we evolve GLC to GLC++, integrating a contrastive affinity learning strategy. We examine the superiority of GLC and GLC++ across multiple benchmarks and category shift scenarios. Remarkably, in the most challenging open-partial-set scenarios, GLC and GLC++ surpass GATE by 16.7% and 18.6% in H-score on VisDA, respectively. GLC++ enhances the novel category clustering accuracy of GLC by 4.3% in open-set scenarios on Office-Home. Furthermore, the introduced contrastive learning strategy not only enhances GLC but also significantly facilitates existing methodologies.

arxiv情報

著者 Sanqing Qu,Tianpei Zou,Florian Röhrbein,Cewu Lu,Guang Chen,Dacheng Tao,Changjun Jiang
発行日 2024-03-21 13:57:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク