要約
人工知能 (AI) ベースの画像解析は、がん診断を含む組織病理学の診断をサポートする計り知れない可能性を秘めています。
ただし、教師あり AI 手法の開発には、大規模な注釈付きデータセットが必要です。
潜在的に強力な解決策は、トレーニング データを合成データで強化することです。
高品質で多様な合成画像を生成できる潜在拡散モデルが期待されています。
ただし、最も一般的な実装は詳細なテキストによる説明に依存しており、この分野では通常は利用できません。
この研究では、自動的に抽出された画像の特徴から構造化されたテキスト プロンプトを構築する方法を提案しています。
私たちは、健康または癌性として大まかに注釈が付けられているだけの組織パッチで構成される PCam データセットを使用して実験します。
健康なラベルと癌性のラベルのみではなく、画像由来の特徴をプロンプトに含めることで、Fr\’echet Inception Distance (FID) が 178.8 から 90.2 に改善されることを示します。
また、感度/特異度の中央値が 0.55/0.55 である合成画像を検出することが病理学者にとって困難であると感じていることも示します。
最後に、合成データが AI モデルを効果的にトレーニングすることを示します。
要約(オリジナル)
Artificial Intelligence (AI) based image analysis has an immense potential to support diagnostic histopathology, including cancer diagnostics. However, developing supervised AI methods requires large-scale annotated datasets. A potentially powerful solution is to augment training data with synthetic data. Latent diffusion models, which can generate high-quality, diverse synthetic images, are promising. However, the most common implementations rely on detailed textual descriptions, which are not generally available in this domain. This work proposes a method that constructs structured textual prompts from automatically extracted image features. We experiment with the PCam dataset, composed of tissue patches only loosely annotated as healthy or cancerous. We show that including image-derived features in the prompt, as opposed to only healthy and cancerous labels, improves the Fr\’echet Inception Distance (FID) from 178.8 to 90.2. We also show that pathologists find it challenging to detect synthetic images, with a median sensitivity/specificity of 0.55/0.55. Finally, we show that synthetic data effectively trains AI models.
arxiv情報
著者 | Pedro Osorio,Guillermo Jimenez-Perez,Javier Montalt-Tordera,Jens Hooge,Guillem Duran-Ballester,Shivam Singh,Moritz Radbruch,Ute Bach,Sabrina Schroeder,Krystyna Siudak,Julia Vienenkoetter,Bettina Lawrenz,Sadegh Mohammadi |
発行日 | 2023-12-15 13:48:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google