A Laplacian Pyramid Based Generative H&E Stain Augmentation Network

要約

ヘマトキシリン・エオシン (H&E) 染色は、医療診断用の組織像における組織切片の彩度と核と細胞質のコントラストを強調するために広く使用されているサンプル前処理手順です。
ただし、使用する試薬の違いなどのさまざまな要因により、実際に記録される染色の色は大きく変動します。
この変動性は、機械学習ベースのコンピューター支援診断ツールの一般化を達成する際に課題を引き起こします。
学習されたモデルを染色のバリエーションに対して鈍感にするために、我々は生成染色拡張ネットワーク (G-SAN) を提案します。これは、シミュレートされた現実的な染色のバリエーションで細胞画像のコレクションを拡張する GAN ベースのフレームワークです。
G-SAN はその中核として、細胞形態から染色を解きほぐすことができる、新しくて計算効率の高いラプラシアン ピラミッド (LP) ベースのジェネレーター アーキテクチャを使用しています。
パッチ分類と核セグメンテーションのタスクを通じて、G-SAN 拡張トレーニング データを使用すると、F1 スコアが平均 15.7%、パノプティック品質がそれぞれ平均 7.3% 向上することがわかりました。
私たちのコードは https://github.com/lifangda01/GSAN-Demo で入手できます。

要約(オリジナル)

Hematoxylin and Eosin (H&E) staining is a widely used sample preparation procedure for enhancing the saturation of tissue sections and the contrast between nuclei and cytoplasm in histology images for medical diagnostics. However, various factors, such as the differences in the reagents used, result in high variability in the colors of the stains actually recorded. This variability poses a challenge in achieving generalization for machine-learning based computer-aided diagnostic tools. To desensitize the learned models to stain variations, we propose the Generative Stain Augmentation Network (G-SAN) — a GAN-based framework that augments a collection of cell images with simulated yet realistic stain variations. At its core, G-SAN uses a novel and highly computationally efficient Laplacian Pyramid (LP) based generator architecture, that is capable of disentangling stain from cell morphology. Through the task of patch classification and nucleus segmentation, we show that using G-SAN-augmented training data provides on average 15.7% improvement in F1 score and 7.3% improvement in panoptic quality, respectively. Our code is available at https://github.com/lifangda01/GSAN-Demo.

arxiv情報

著者 Fangda Li,Zhiqiang Hu,Wen Chen,Avinash Kak
発行日 2023-05-23 17:43:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク