要約
最近の学習ベースのアプローチは、コンピューター断層撮影などの校正済み医療画像処理においては驚くべき進歩を遂げていますが、校正されていないモダリティ、つまり、性能が MR のコントラスト、解像度、解像度の違いに非常に敏感である悪名高い磁気共鳴画像法 (MRI) では一般化するのに苦労しています。
トレーニング データとテスト データの間の方向性。
これにより、現実世界の多様な臨床取得プロトコルへの幅広い適用が妨げられます。
Brain-ID は、脳イメージングのための堅牢な特徴表現学習戦略です。これは、コントラストに依存せず、取得された画像の外観 (つまり、変形、コントラスト、解像度、向き、アーティファクトなど) に関係なく、各被験者の脳の解剖学的構造に対して堅牢です。
、など)。
Brain-ID は完全に合成データに基づいてトレーニングされており、当社が提案するシンプルな 1 層ソリューションを使用して下流のタスクに簡単に適応できます。
Brain-ID 機能の堅牢性を検証し、コントラスト非依存性 (解剖学的再構成/コントラスト合成、脳セグメンテーション) とコントラスト依存性 (超解像度、バイアスフィールド推定) の両方を含むさまざまな下流アプリケーションでのパフォーマンスを評価します。
タスク。
6 つの公開データセットに対する広範な実験により、Brain-ID がすべてのタスクで最先端のパフォーマンスを達成し、さらに重要なことに、限られたトレーニング データしか利用できない場合でもパフォーマンスが維持されることが実証されました。
要約(オリジナル)
Recent learning-based approaches have made astonishing advances in calibrated medical imaging like computerized tomography, yet they struggle to generalize in uncalibrated modalities — notoriously magnetic resonance imaging (MRI), where performance is highly sensitive to the differences in MR contrast, resolution, and orientation between the training and testing data. This prevents broad applicability to the diverse clinical acquisition protocols in the real world. We introduce Brain-ID, a robust feature representation learning strategy for brain imaging, which is contrast-agnostic, and robust to the brain anatomy of each subject regardless of the appearance of acquired images (i.e., deformation, contrast, resolution, orientation, artifacts, etc). Brain-ID is trained entirely on synthetic data, and easily adapts to downstream tasks with our proposed simple one-layer solution. We validate the robustness of Brain-ID features, and evaluate their performance in a variety of downstream applications, including both contrast-independent (anatomy reconstruction/contrast synthesis, brain segmentation), and contrast-dependent (super-resolution, bias field estimation) tasks. Extensive experiments on 6 public datasets demonstrate that Brain-ID achieves state-of-the-art performance in all tasks, and more importantly, preserves its performance when only limited training data is available.
arxiv情報
著者 | Peirong Liu,Oula Puonti,Xiaoling Hu,Daniel C. Alexander,Juan Eugenio Iglesias |
発行日 | 2023-11-28 16:16:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google