要約
脳の健康研究の急成長分野では、神経学的データの解釈と分析に人工知能 (AI) がますます活用されています。
この研究では、41,400 人の参加者から得られた大規模なマルチモーダル磁気共鳴画像法 (MRI) データセットを統合することにより、医療基礎モデルの作成に向けた新しいアプローチを導入しています。
私たちの方法には、ビジョントランスフォーマーを使用した新しい 2 段階の事前トレーニング アプローチが含まれます。
最初の段階では、一般に健康な脳の解剖学的構造をエンコードし、さまざまな脳領域の形状やサイズなどの重要な特徴を特定します。
第 2 段階では、位置や脳構造の相対的な位置などの側面を含む空間情報に焦点を当てます。
私たちは、脳腫瘍セグメンテーション (BraTS) チャレンジと脳卒中後の病変の解剖学的追跡 v2.0 (ATLAS v2.0) データセットを使用して、モデル BrainFounder を厳密に評価します。
BrainFounder は、完全教師あり学習を使用したこれまでの優れたソリューションの成果を上回る、大幅なパフォーマンスの向上を示しています。
私たちの発見は、モデルの複雑さと、一般に健康な脳から得られるラベルなしのトレーニング データの量の両方をスケールアップすることの影響を強調しており、これにより、MRI を使用した複雑な神経画像タスクにおけるモデルの精度と予測能力が向上します。
この研究の意義は、医療における革新的な洞察と実用的な応用を提供し、医療 AI の基礎モデルの作成に向けて大きな一歩を踏み出すことになります。
事前トレーニング済みのモデルとトレーニング コードは、https://github.com/lab-smile/GatorBrain でご覧いただけます。
要約(オリジナル)
The burgeoning field of brain health research increasingly leverages artificial intelligence (AI) to interpret and analyze neurological data. This study introduces a novel approach towards the creation of medical foundation models by integrating a large-scale multi-modal magnetic resonance imaging (MRI) dataset derived from 41,400 participants in its own. Our method involves a novel two-stage pretraining approach using vision transformers. The first stage is dedicated to encoding anatomical structures in generally healthy brains, identifying key features such as shapes and sizes of different brain regions. The second stage concentrates on spatial information, encompassing aspects like location and the relative positioning of brain structures. We rigorously evaluate our model, BrainFounder, using the Brain Tumor Segmentation (BraTS) challenge and Anatomical Tracings of Lesions After Stroke v2.0 (ATLAS v2.0) datasets. BrainFounder demonstrates a significant performance gain, surpassing the achievements of the previous winning solutions using fully supervised learning. Our findings underscore the impact of scaling up both the complexity of the model and the volume of unlabeled training data derived from generally healthy brains, which enhances the accuracy and predictive capabilities of the model in complex neuroimaging tasks with MRI. The implications of this research provide transformative insights and practical applications in healthcare and make substantial steps towards the creation of foundation models for Medical AI. Our pretrained models and training code can be found at https://github.com/lab-smile/GatorBrain.
arxiv情報
著者 | Joseph Cox,Peng Liu,Skylar E. Stolte,Yunchao Yang,Kang Liu,Kyle B. See,Huiwen Ju,Ruogu Fang |
発行日 | 2024-11-07 15:28:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google