Mix-Domain Contrastive Learning for Unpaired H&E-to-IHC Stain Translation

要約

H&E から IHC への染色変換技術は、特に医療専門家が不足し、高価な機器へのアクセスが限られている資源の少ない地域において、正確ながん診断のための有望なソリューションを提供します。
H&E-IHC 画像ペアのピクセルレベルのずれを考慮して、現在の研究では、画像ペアの同じ位置からのパッチ間の病理学的一貫性を調査しています。
ただし、それらのほとんどは、ドメインまたはパッチ間の対応を強調しすぎて、対応しないオブジェクトによって提供されるサイド情報を無視しています。
この論文では、対になっていない H&E から IHC への染色変換で監視情報を活用するミックスドメイン対照学習 (MDCL) 方法を提案します。
具体的には、提案された MDCL 手法は、一致する画像からアンカー パッチとすべてのパッチの間の相関関係を推定することにより、ドメイン間およびドメイン内の病理情報を集約し、ネットワークが混合ドメインから追加の対照的な知識を学習することを促進します。
MDCL は、ミックスドメイン病理学情報の集約により、対応するパッチ間の病理学的一貫性と、生成された IHC 画像のさまざまな位置からのパッチの成分の不一致を強化します。
2 つの H&E から IHC への染色変換データセット、つまり MIST と BCI に関する広範な実験により、提案された方法が複数のメトリクスにわたって最先端のパフォーマンスを達成することが実証されました。

要約(オリジナル)

H&E-to-IHC stain translation techniques offer a promising solution for precise cancer diagnosis, especially in low-resource regions where there is a shortage of health professionals and limited access to expensive equipment. Considering the pixel-level misalignment of H&E-IHC image pairs, current research explores the pathological consistency between patches from the same positions of the image pair. However, most of them overemphasize the correspondence between domains or patches, overlooking the side information provided by the non-corresponding objects. In this paper, we propose a Mix-Domain Contrastive Learning (MDCL) method to leverage the supervision information in unpaired H&E-to-IHC stain translation. Specifically, the proposed MDCL method aggregates the inter-domain and intra-domain pathology information by estimating the correlation between the anchor patch and all the patches from the matching images, encouraging the network to learn additional contrastive knowledge from mixed domains. With the mix-domain pathology information aggregation, MDCL enhances the pathological consistency between the corresponding patches and the component discrepancy of the patches from the different positions of the generated IHC image. Extensive experiments on two H&E-to-IHC stain translation datasets, namely MIST and BCI, demonstrate that the proposed method achieves state-of-the-art performance across multiple metrics.

arxiv情報

著者 Song Wang,Zhong Zhang,Huan Yan,Ming Xu,Guanghui Wang
発行日 2024-06-17 17:47:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク