SurgicaL-CD: Generating Surgical Images via Unpaired Image Translation with Latent Consistency Diffusion Models

要約

コンピュータ支援手術 (CAS) システムは、手術中に外科医を支援するように設計されており、それによって合併症を軽減し、患者ケアを強化します。
これらのシステムの機械学習モデルをトレーニングするには、注釈付きのデータセットの大規模なコーパスが必要ですが、患者のプライバシーへの懸念や医師に必要なラベル付けの多大な労力により、外科領域では取得が困難です。
これまでの方法では、生成モデルを使用してペアのない画像変換を検討し、シミュレーションから現実的な手術画像を作成していました。
しかし、これらのアプローチでは、高品質で多様な手術画像を生成するのに苦労しています。
この研究では、\emph{SurgicaL-CD} を導入します。\emph{SurgicaL-CD} は、ペアのデータを使用せずにわずか数回のサンプリング ステップで現実的な手術画像を生成する一貫性蒸留拡散法です。
3 つのデータセットに対するアプローチを評価し、下流のトレーニング データセットとしての品質と実用性の観点から生成された画像を評価します。
私たちの結果は、私たちの方法が GAN や拡散ベースのアプローチよりも優れていることを示しています。
私たちのコードは https://gitlab.com/nct_tso_public/gan2diffusion で入手できます。

要約(オリジナル)

Computer-assisted surgery (CAS) systems are designed to assist surgeons during procedures, thereby reducing complications and enhancing patient care. Training machine learning models for these systems requires a large corpus of annotated datasets, which is challenging to obtain in the surgical domain due to patient privacy concerns and the significant labeling effort required from doctors. Previous methods have explored unpaired image translation using generative models to create realistic surgical images from simulations. However, these approaches have struggled to produce high-quality, diverse surgical images. In this work, we introduce \emph{SurgicaL-CD}, a consistency-distilled diffusion method to generate realistic surgical images with only a few sampling steps without paired data. We evaluate our approach on three datasets, assessing the generated images in terms of quality and utility as downstream training datasets. Our results demonstrate that our method outperforms GANs and diffusion-based approaches. Our code is available at https://gitlab.com/nct_tso_public/gan2diffusion.

arxiv情報

著者 Danush Kumar Venkatesh,Dominik Rivoir,Micha Pfeiffer,Stefanie Speidel
発行日 2024-08-23 13:01:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク