要約
顕微鏡画像における自動細胞セグメンテーションは生物医学研究には不可欠ですが、従来の方法では労力がかかり、エラーが発生しやすくなっています。
深層学習ベースのアプローチは効果的であることが証明されていますが、多くの場合、手動によるアノテーションの課題により、大規模なアノテーション付きデータセットが不足します。
これを克服するために、カスケード拡散モデルを使用して、高密度に注釈が付けられた 2D および 3D 細胞顕微鏡画像を合成するための新しいフレームワークを提案します。
私たちの方法では、マルチレベル拡散モデルと 3D 表面再構成アプローチである NeuS を使用して、まばらな 2D アノテーションから 2D および 3D セル マスクを合成します。
その後、事前トレーニングされた 2D 安定拡散モデルが微調整されてリアルな細胞テクスチャが生成され、最終出力が結合されて細胞集団が形成されます。
合成データと実際のデータを組み合わせてセグメンテーション モデルをトレーニングすると、複数のデータセット全体でセル セグメンテーションのパフォーマンスが最大 9\% 向上することがわかります。
さらに、FID スコアは、合成データが実際のデータによく似ていることを示しています。
私たちが提案するアプローチのコードは、https://github.com/ruveydayilmaz0/cascaded\_diffusion で入手できます。
要約(オリジナル)
Automated cell segmentation in microscopy images is essential for biomedical research, yet conventional methods are labor-intensive and prone to error. While deep learning-based approaches have proven effective, they often require large annotated datasets, which are scarce due to the challenges of manual annotation. To overcome this, we propose a novel framework for synthesizing densely annotated 2D and 3D cell microscopy images using cascaded diffusion models. Our method synthesizes 2D and 3D cell masks from sparse 2D annotations using multi-level diffusion models and NeuS, a 3D surface reconstruction approach. Following that, a pretrained 2D Stable Diffusion model is finetuned to generate realistic cell textures and the final outputs are combined to form cell populations. We show that training a segmentation model with a combination of our synthetic data and real data improves cell segmentation performance by up to 9\% across multiple datasets. Additionally, the FID scores indicate that the synthetic data closely resembles real data. The code for our proposed approach will be available at https://github.com/ruveydayilmaz0/cascaded\_diffusion.
arxiv情報
著者 | Rüveyda Yilmaz,Kaan Keven,Yuli Wu,Johannes Stegmaier |
発行日 | 2024-11-18 12:22:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google