Multi-source-free Domain Adaptation via Uncertainty-aware Adaptive Distillation

要約

ソースフリー ドメイン アダプテーション (SFDA) は、データ プライバシーを意識してデータにアクセスすることなく、ドメインから取得したデータ間のドメインの不一致を軽減します。
しかし、既存の従来型 SFDA 手法は、通常、さまざまな機器を使用して複数の機関から医療データが収集される医療現場では固有の制限に直面しています。
この問題に対処するために、マルチソースフリーの教師なしドメイン適応 (MSFDA) 設定のための不確実性を考慮した適応蒸留 (UAD) というシンプルかつ効果的な方法を提案します。
UAD は、(i) 調整された信頼性の高いベース モデルの初期化を実現するモデル レベル、および (ii) 高品質の疑似ラベルに基づくモデル適応によるインスタンス レベルから適切に調整された知識の蒸留を実行し、それによって高性能のターゲット ドメイン モデルを取得することを目的としています。

その一般的な適用性を検証するために、2 つの多施設データセット間の 2 つの画像ベースの診断ベンチマークで UAD を評価しました。この方法では、既存の研究と比較して大幅なパフォーマンスの向上が示されています。
コードは間もなく利用可能になります。

要約(オリジナル)

Source-free domain adaptation (SFDA) alleviates the domain discrepancy among data obtained from domains without accessing the data for the awareness of data privacy. However, existing conventional SFDA methods face inherent limitations in medical contexts, where medical data are typically collected from multiple institutions using various equipment. To address this problem, we propose a simple yet effective method, named Uncertainty-aware Adaptive Distillation (UAD) for the multi-source-free unsupervised domain adaptation (MSFDA) setting. UAD aims to perform well-calibrated knowledge distillation from (i) model level to deliver coordinated and reliable base model initialisation and (ii) instance level via model adaptation guided by high-quality pseudo-labels, thereby obtaining a high-performance target domain model. To verify its general applicability, we evaluate UAD on two image-based diagnosis benchmarks among two multi-centre datasets, where our method shows a significant performance gain compared with existing works. The code will be available soon.

arxiv情報

著者 Yaxuan Song,Jianan Fan,Dongnan Liu,Weidong Cai
発行日 2024-02-09 06:48:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク