Learning General-Purpose Biomedical Volume Representations using Randomized Synthesis

要約

現在のボリュームメトリック生物医学基礎モデルは、公開されている3Dデータセットが小さく、医療処置、病態、解剖学的領域、イメージングプロトコルの幅広い多様性をカバーしていないため、一般化に苦労している。われわれは、この問題に対処するために、トレーニング時に強い領域シフトを予測する表現学習法を開発する。我々はまず、新しい生物医学的文脈への汎化を可能にする、非常に多様な訓練サンプルを合成するデータエンジンを提案する。次に、任意のボクセルレベルのタスクに対して単一の3Dネットワークを学習するために、データエンジンによってシミュレートされた厄介な画像変動(汎化のための重要な帰納的バイアス)に対して安定したネットワークを事前学習する対比学習法を開発する。このネットワークの特徴は、下流のタスクの入力画像のロバストな表現として使用することができ、その重みは、新しいデータセットで微調整を行うための、データセットにとらわれない強力な初期設定を提供する。その結果、マルチモーダリティレジストレーションと少数ショットのセグメンテーションの両方において新しい基準を設定した。

要約(オリジナル)

Current volumetric biomedical foundation models struggle to generalize as public 3D datasets are small and do not cover the broad diversity of medical procedures, conditions, anatomical regions, and imaging protocols. We address this by creating a representation learning method that instead anticipates strong domain shifts at training time itself. We first propose a data engine that synthesizes highly variable training samples that enable generalization to new biomedical contexts. To then train a single 3D network for any voxel-level task, we develop a contrastive learning method that pretrains the network to be stable against nuisance imaging variation simulated by the data engine, a key inductive bias for generalization. This network’s features can be used as robust representations of input images for downstream tasks and its weights provide a strong, dataset-agnostic initialization for finetuning on new datasets. As a result, we set new standards across both multimodality registration and few-shot segmentation, a first for any 3D biomedical vision model, all without (pre-)training on any existing dataset of real images.

arxiv情報

著者 Neel Dey,Benjamin Billot,Hallee E. Wong,Clinton J. Wang,Mengwei Ren,P. Ellen Grant,Adrian V. Dalca,Polina Golland
発行日 2024-11-04 18:40:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク