SynthStrip: Skull-Stripping for Any Brain Image

要約

頭蓋骨ストリッピングとして知られる磁気共鳴画像法(MRI)データからの非脳信号の除去は、多くの神経画像分析ストリームの不可欠な要素です。
それらの豊富さにもかかわらず、人気のある古典的な頭蓋骨ストリッピング法は、通常、特定の取得特性、すなわち、研究環境で普及しているほぼ等方性の解像度とT1強調(T1w)MRIコントラストを持つ画像に合わせて調整されます。
その結果、既存のツールは、クリニックで一般的な高速スピンエコー(FSE)MRIで取得された厚いスライスのスタックなど、他の画像タイプにうまく適応しない傾向があります。
脳抽出のための学習ベースのアプローチは近年注目を集めていますが、これらの方法はトレーニング手順中に見られる画像タイプにのみ有効であるため、同様の負担に直面しています。
イメージングプロトコルのランドスケープ全体で堅牢な頭蓋骨ストリッピングを実現するために、迅速な学習ベースの脳抽出ツールであるSynthStripを紹介します。
SynthStripは、解剖学的セグメンテーションを活用して、医用画像の現実的な範囲をはるかに超える解剖学的構造、強度分布、およびアーティファクトを含む完全に合成されたトレーニングデータセットを生成することにより、実際に取得したさまざまな脳画像に正常に一般化することを学習します。
ターゲットのコントラスト。
SynthStripの、新生児から成人までの対象集団全体にわたる多様な画像取得と解像度のセットに対する有効性を示します。
一般的な頭蓋骨除去ベースラインよりも精度が大幅に向上していることを示しています。すべて単一のトレーニング済みモデルを使用しています。
私たちの方法とラベル付きの評価データは、https://w3id.org/synthstripで入手できます。

要約(オリジナル)

The removal of non-brain signal from magnetic resonance imaging (MRI) data, known as skull-stripping, is an integral component of many neuroimage analysis streams. Despite their abundance, popular classical skull-stripping methods are usually tailored to images with specific acquisition properties, namely near-isotropic resolution and T1-weighted (T1w) MRI contrast, which are prevalent in research settings. As a result, existing tools tend to adapt poorly to other image types, such as stacks of thick slices acquired with fast spin-echo (FSE) MRI that are common in the clinic. While learning-based approaches for brain extraction have gained traction in recent years, these methods face a similar burden, as they are only effective for image types seen during the training procedure. To achieve robust skull-stripping across a landscape of imaging protocols, we introduce SynthStrip, a rapid, learning-based brain-extraction tool. By leveraging anatomical segmentations to generate an entirely synthetic training dataset with anatomies, intensity distributions, and artifacts that far exceed the realistic range of medical images, SynthStrip learns to successfully generalize to a variety of real acquired brain images, removing the need for training data with target contrasts. We demonstrate the efficacy of SynthStrip for a diverse set of image acquisitions and resolutions across subject populations, ranging from newborn to adult. We show substantial improvements in accuracy over popular skull-stripping baselines — all with a single trained model. Our method and labeled evaluation data are available at https://w3id.org/synthstrip.

arxiv情報

著者 Andrew Hoopes,Jocelyn S. Mora,Adrian V. Dalca,Bruce Fischl,Malte Hoffmann
発行日 2022-07-26 17:00:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV, physics.med-ph, q-bio.NC パーマリンク