Context-Aware Pseudo-Label Refinement for Source-Free Domain Adaptive Fundus Image Segmentation

要約

ドメイン適応の問題では、プライバシーや知的財産の問題に​​より、ソース データがターゲット クライアント側で利用できない場合があります。
ソースフリーの教師なしドメイン適応 (SF-UDA) は、ソース側でトレーニングされたモデルを適応させて、ソース モデルとラベルのないターゲット データのみを使用してターゲット分布を調整することを目的としています。
ソース モデルは通常、ターゲット ドメイン上にノイズが多くコンテキストに一貫性のない疑似ラベルを生成します。つまり、同様の外観を持つ隣接領域には、異なる疑似ラベルが付けられます。
この観察は、コンテキスト関係を使用して擬似ラベルを改良する動機になります。
もう 1 つの観察は、同じクラスの特徴がドメイン ギャップにもかかわらずクラスターを形成する傾向があるということです。これは、コンテキスト関係が特徴の距離から容易に計算できることを意味します。
この目的のために、我々はSF-UDAのためのコンテキスト認識型擬似ラベル改良法を提案する。
具体的には、コンテキスト関係を学習するためのコンテキスト類似性学習モジュールを開発します。
次に、学習したコンテキスト関係を利用して擬似ラベルの改訂を設計します。
さらに、不正確なコンテキスト関係によって引き起こされる誤った改訂を補償するために、改訂された擬似ラベルを調整することを提案します。
さらに、ピクセルレベルおよびクラスレベルのノイズ除去スキームを採用して、ドメイン適応のための信頼できる擬似ラベルを選択します。
クロスドメイン眼底画像の実験は、私たちのアプローチが最先端の結果をもたらすことを示しています。
コードは https://github.com/xmed-lab/CPR で入手できます。

要約(オリジナル)

In the domain adaptation problem, source data may be unavailable to the target client side due to privacy or intellectual property issues. Source-free unsupervised domain adaptation (SF-UDA) aims at adapting a model trained on the source side to align the target distribution with only the source model and unlabeled target data. The source model usually produces noisy and context-inconsistent pseudo-labels on the target domain, i.e., neighbouring regions that have a similar visual appearance are annotated with different pseudo-labels. This observation motivates us to refine pseudo-labels with context relations. Another observation is that features of the same class tend to form a cluster despite the domain gap, which implies context relations can be readily calculated from feature distances. To this end, we propose a context-aware pseudo-label refinement method for SF-UDA. Specifically, a context-similarity learning module is developed to learn context relations. Next, pseudo-label revision is designed utilizing the learned context relations. Further, we propose calibrating the revised pseudo-labels to compensate for wrong revision caused by inaccurate context relations. Additionally, we adopt a pixel-level and class-level denoising scheme to select reliable pseudo-labels for domain adaptation. Experiments on cross-domain fundus images indicate that our approach yields the state-of-the-art results. Code is available at https://github.com/xmed-lab/CPR.

arxiv情報

著者 Zheang Huai,Xinpeng Ding,Yi Li,Xiaomeng Li
発行日 2023-08-15 12:11:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク