MedVAE: Efficient Automated Interpretation of Medical Images with Large-Scale Generalizable Autoencoders

要約

医療画像は、臨床的意思決定に必要な細粒の特徴をキャプチャするために、大きな視野を持つ高解像度で獲得されます。
したがって、医療画像で深い学習モデルをトレーニングすると、大きな計算コストが発生する可能性があります。
この作業では、臨床的に関連する機能を維持しながら、下流の計算効率を改善するために、医療画像を縮小するという課題に対処します。
医療画像をダウンサイズの潜在表現としてエンコードし、潜在表現を高解像度画像にデコードできる6つの大規模な2Dおよび3D自動エンコーダーのファミリーであるMedvaeを紹介します。
1,052,730の医療画像を使用した新しい2段階トレーニングアプローチを使用して、Medvae自動エンコーダーをトレーニングします。
20の医療画像データセットから得られた多様なタスクを介して、(1)下流モデルをトレーニングするときに高解像度画像の代わりにMedvae潜在表現を利用して、臨床的に関連性のある効率の利点(最大70倍の改善)につながる可能性があることを示しています。
特徴と(2)Medvaeは、潜在的な表現を高い忠実度で高解像度の画像に戻すことができます。
私たちの仕事は、大規模で一般化可能な自動エンコーダーが医療領域の重要な効率の課題に対処するのに役立つことを示しています。
私たちのコードは、https://github.com/stanfordmimi/medvaeで入手できます。

要約(オリジナル)

Medical images are acquired at high resolutions with large fields of view in order to capture fine-grained features necessary for clinical decision-making. Consequently, training deep learning models on medical images can incur large computational costs. In this work, we address the challenge of downsizing medical images in order to improve downstream computational efficiency while preserving clinically-relevant features. We introduce MedVAE, a family of six large-scale 2D and 3D autoencoders capable of encoding medical images as downsized latent representations and decoding latent representations back to high-resolution images. We train MedVAE autoencoders using a novel two-stage training approach with 1,052,730 medical images. Across diverse tasks obtained from 20 medical image datasets, we demonstrate that (1) utilizing MedVAE latent representations in place of high-resolution images when training downstream models can lead to efficiency benefits (up to 70x improvement in throughput) while simultaneously preserving clinically-relevant features and (2) MedVAE can decode latent representations back to high-resolution images with high fidelity. Our work demonstrates that large-scale, generalizable autoencoders can help address critical efficiency challenges in the medical domain. Our code is available at https://github.com/StanfordMIMI/MedVAE.

arxiv情報

著者 Maya Varma,Ashwin Kumar,Rogier van der Sluijs,Sophie Ostmeier,Louis Blankemeier,Pierre Chambon,Christian Bluethgen,Jip Prince,Curtis Langlotz,Akshay Chaudhari
発行日 2025-02-20 17:24:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク