Test-time image-to-image translation ensembling improves out-of-distribution generalization in histopathology

要約

組織病理学の全スライド画像(WSI)は、照明、色、光学的アーチファクトなどの病院間の大きな変動を明らかにする可能性があります。
医療センター(染色、スキャナー)全体で異なるスキャンプロトコルを使用することによって引き起こされるこれらの変動は、目に見えないプロトコルでのアルゴリズムの一般化に大きな悪影響を与える可能性があります。
これは、そのようなパフォーマンスの低下を制限するための新しい方法の開発を動機付けます。
この論文では、目に見えないターゲットプロトコルの堅牢性を強化するために、マルチドメインの画像から画像への変換に基づく新しいテスト時のデータ拡張を提案します。
これにより、画像を分類して予測をアンサンブルする前に、見えないプロトコルから各ソースドメインに画像を投影できます。
このテスト時間の拡張方法により、ドメインの一般化のパフォーマンスが大幅に向上します。
その有効性を実証するために、私たちの方法は、従来のドメインの一般化、標準的なH&E固有の色の増強/正規化、および標準的なテスト時間の増強技術よりも優れている2つの異なる組織病理学的タスクで評価されています。
私たちのコードはhttps://gitlab.com/vitadx/articles/test-time-i2i-translation-ensemblingで公開されています。

要約(オリジナル)

Histopathology whole slide images (WSIs) can reveal significant inter-hospital variability such as illumination, color or optical artifacts. These variations, caused by the use of different scanning protocols across medical centers (staining, scanner), can strongly harm algorithms generalization on unseen protocols. This motivates development of new methods to limit such drop of performances. In this paper, to enhance robustness on unseen target protocols, we propose a new test-time data augmentation based on multi domain image-to-image translation. It allows to project images from unseen protocol into each source domain before classifying them and ensembling the predictions. This test-time augmentation method results in a significant boost of performances for domain generalization. To demonstrate its effectiveness, our method has been evaluated on 2 different histopathology tasks where it outperforms conventional domain generalization, standard H&E specific color augmentation/normalization and standard test-time augmentation techniques. Our code is publicly available at https://gitlab.com/vitadx/articles/test-time-i2i-translation-ensembling.

arxiv情報

著者 Marin Scalbert,Maria Vakalopoulou,Florent Couzinié-Devy
発行日 2022-06-30 15:47:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク