DiffInfinite: Large Mask-Image Synthesis via Parallel Random Patch Diffusion in Histopathology

要約

我々は、長距離相関構造情報を保存しながら任意に大きな組織学的画像を生成する階層的拡散モデルである DiffInfinite を紹介します。
私たちのアプローチでは、最初に合成セグメンテーション マスクが生成され、その後、高忠実度の生成拡散プロセスの条件として使用されます。
提案されたサンプリング方法は、高速トレーニングに必要な小さなパッチのみを必要としながら、任意の画像サイズにスケールアップできます。
さらに、タイリングアーティファクトを回避しながら、以前の大規模コンテンツ生成方法よりも効率的に並列化できます。
このトレーニングでは、分類子を使用しないガイダンスを利用して、小規模でまばらに注釈が付けられたデータセットをラベルのないデータで強化します。
私たちの方法は、大規模な情報、高価な手動アノテーション、および保護データの取り扱いなど、病理組織学的画像処理における特有の課題を軽減します。
DiffInfinite データの生物学的妥当性は、10 人の経験豊富な病理学者による調査と、下流の分類およびセグメント化タスクで評価されます。
モデルからのサンプルは、患者データの保護に関連するコピー防止指標に関して強力なスコアを付けています。

要約(オリジナル)

We present DiffInfinite, a hierarchical diffusion model that generates arbitrarily large histological images while preserving long-range correlation structural information. Our approach first generates synthetic segmentation masks, subsequently used as conditions for the high-fidelity generative diffusion process. The proposed sampling method can be scaled up to any desired image size while only requiring small patches for fast training. Moreover, it can be parallelized more efficiently than previous large-content generation methods while avoiding tiling artifacts. The training leverages classifier-free guidance to augment a small, sparsely annotated dataset with unlabelled data. Our method alleviates unique challenges in histopathological imaging practice: large-scale information, costly manual annotation, and protective data handling. The biological plausibility of DiffInfinite data is evaluated in a survey by ten experienced pathologists as well as a downstream classification and segmentation task. Samples from the model score strongly on anti-copying metrics which is relevant for the protection of patient data.

arxiv情報

著者 Marco Aversa,Gabriel Nobis,Miriam Hägele,Kai Standvoss,Mihaela Chirica,Roderick Murray-Smith,Ahmed Alaa,Lukas Ruff,Daniela Ivanova,Wojciech Samek,Frederick Klauschen,Bruno Sanguinetti,Luis Oala
発行日 2023-10-25 11:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク