Unsupervised Domain Adaptation for Segmentation with Black-box Source Model

要約

教師なしドメイン適応 (UDA) は、新しいドメインでのラベル付けの難しさに対抗するために、ラベル付けされたソース ドメインからラベル付けされていないターゲット ドメインに知識を転送するために広く使用されてきました。
通常、従来のソリューションのトレーニングは、ソース ドメイン データとターゲット ドメイン データの両方の存在に依存しています。
ただし、ソース ドメイン内の大規模で適切にラベル付けされたデータとトレーニング済みモデル パラメーターのプライバシーは、クロス センター/ドメイン コラボレーションの主要な懸念事項になる可能性があります。
この作業では、これに対処するために、元のソース データやホワイト ボックス ソース モデルではなく、ソース ドメインのみでトレーニングされたブラック ボックス セグメンテーション モデルを使用したセグメンテーションのための UDA の実用的なソリューションを提案します。
具体的には、ターゲット固有の表現を徐々に学習するために、指数混合減衰 (EMD) を使用した知識蒸留スキームに頼っています。
さらに、教師なしエントロピー最小化は、ターゲット ドメインの信頼度の正則化にさらに適用されます。
BraTS 2018 データベースでフレームワークを評価し、ホワイト ボックス ソース モデル適応アプローチと同等のパフォーマンスを達成しました。

要約(オリジナル)

Unsupervised domain adaptation (UDA) has been widely used to transfer knowledge from a labeled source domain to an unlabeled target domain to counter the difficulty of labeling in a new domain. The training of conventional solutions usually relies on the existence of both source and target domain data. However, privacy of the large-scale and well-labeled data in the source domain and trained model parameters can become the major concern of cross center/domain collaborations. In this work, to address this, we propose a practical solution to UDA for segmentation with a black-box segmentation model trained in the source domain only, rather than original source data or a white-box source model. Specifically, we resort to a knowledge distillation scheme with exponential mixup decay (EMD) to gradually learn target-specific representations. In addition, unsupervised entropy minimization is further applied to regularization of the target domain confidence. We evaluated our framework on the BraTS 2018 database, achieving performance on par with white-box source model adaptation approaches.

arxiv情報

著者 Xiaofeng Liu,Chaehwa Yoo,Fangxu Xing,C. -C. Jay Kuo,Georges El Fakhri,Jonghye Woo
発行日 2022-08-16 14:29:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV, eess.SP パーマリンク