Diffusion-based generation of Histopathological Whole Slide Images at a Gigapixel scale

要約

我々は、前例のないギガピクセルスケールで合成病理組織学的全スライド画像(WSI)を生成するための新しい拡散ベースのアプローチを提案します。
合成 WSI には多くの潜在的な用途があります。合成 WSI はトレーニング データセットを拡張して、多くの計算病理学アプリケーションのパフォーマンスを向上させることができます。
これにより、プライバシー規制に違反することなく共有できるデータセットの合成コピーを作成できます。
あるいは、データの注釈を必要とせずに、WSI の表現の学習を容易にすることもできます。
このような多様なアプリケーションにもかかわらず、既存の深層学習ベースの方法では、通常の高解像度で WSI を生成することはできません。
主に計算の複雑さが原因です。
したがって、高解像度 WSI の画像生成に取り組むための新しい粗いから細かいサンプリング スキームを提案します。
このスキームでは、最初の低解像度画像の解像度を高解像度 WSI に増加します。
特に、拡散モデルは画像に細かいディテールを順次追加し、解像度を高めます。
私たちの実験では、TCGA-BRCA データセットの WSI を使用してメソッドをトレーニングします。
定量的評価に加えて、病理医によるユーザー調査も実施しました。
研究結果は、私たちが生成した WSI が実際の WSI の構造に似ていることを示唆しています。

要約(オリジナル)

We present a novel diffusion-based approach to generate synthetic histopathological Whole Slide Images (WSIs) at an unprecedented gigapixel scale. Synthetic WSIs have many potential applications: They can augment training datasets to enhance the performance of many computational pathology applications. They allow the creation of synthesized copies of datasets that can be shared without violating privacy regulations. Or they can facilitate learning representations of WSIs without requiring data annotations. Despite this variety of applications, no existing deep-learning-based method generates WSIs at their typically high resolutions. Mainly due to the high computational complexity. Therefore, we propose a novel coarse-to-fine sampling scheme to tackle image generation of high-resolution WSIs. In this scheme, we increase the resolution of an initial low-resolution image to a high-resolution WSI. Particularly, a diffusion model sequentially adds fine details to images and increases their resolution. In our experiments, we train our method with WSIs from the TCGA-BRCA dataset. Additionally to quantitative evaluations, we also performed a user study with pathologists. The study results suggest that our generated WSIs resemble the structure of real WSIs.

arxiv情報

著者 Robert Harb,Thomas Pock,Heimo Müller
発行日 2023-11-14 14:33:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, I.2.10 パーマリンク