Brain MRI Segmentation using Template-Based Training and Visual Perception Augmentation

要約

ディープラーニングモデルは通常、高精度を達成するために十分な学習データを必要とするが、ラベル付きデータの取得には時間と労力がかかる。ここでは、1つの母集団平均脳MRIテンプレートとそれに関連するセグメンテーションラベルのみを用いて、ゼロから3D U-Netモデルを学習するテンプレートベースの学習方法を紹介する。このプロセスには、多様な画像入力に対応し、オーバーフィッティングを軽減するモデルのロバスト性を高めるために、視覚的知覚の補強が組み込まれている。このアプローチを活用して、マウス、ラット、マーモセット、アカゲザル、およびヒトの脳MRI用の3D U-Netモデルを訓練し、頭蓋骨ストリッピング、脳セグメンテーション、組織確率マッピングなどのセグメンテーションタスクを達成した。このツールは、限られた利用可能な学習データに効果的に対処し、画像解析におけるディープラーニングの応用を拡大する大きな可能性を秘めており、研究者にたった1つの画像サンプルでディープニューラルネットワークを学習する統一的なソリューションを提供する。

要約(オリジナル)

Deep learning models usually require sufficient training data to achieve high accuracy, but obtaining labeled data can be time-consuming and labor-intensive. Here we introduce a template-based training method to train a 3D U-Net model from scratch using only one population-averaged brain MRI template and its associated segmentation label. The process incorporated visual perception augmentation to enhance the model’s robustness in handling diverse image inputs and mitigating overfitting. Leveraging this approach, we trained 3D U-Net models for mouse, rat, marmoset, rhesus, and human brain MRI to achieve segmentation tasks such as skull-stripping, brain segmentation, and tissue probability mapping. This tool effectively addresses the limited availability of training data and holds significant potential for expanding deep learning applications in image analysis, providing researchers with a unified solution to train deep neural networks with only one image sample.

arxiv情報

著者 Fang-Cheng Yeh
発行日 2023-08-04 14:53:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV, q-bio.QM パーマリンク