要約
髄膜リンパ管 (MLV) は、人間の脳からの老廃物の排出を担当します。
それらの機能の障害は、老化だけでなく、多発性硬化症やアルツハイマー病などの脳疾患にも関連しています。
しかし、MLV は磁気共鳴画像法 (MRI) で初めて記載されたのはつい最近であり、その枝分かれした構造により手動によるセグメンテーションが特に困難になっています。
さらに、その外観について一貫した概念がないため、人間が注釈を付けた MLV 構造には、ほとんどの自動セグメンテーション手法では考慮できない評価者間での高い変動性が含まれています。
この研究では、人気のある nnU-Net モデル用の新しい評価者を意識したトレーニング スキームを提案し、MLV の正確かつ一貫したセグメンテーションのための評価者ベースのアンサンブル戦略を調査します。
これにより、さまざまな注釈スタイルでの明示的な予測と評価者ベースの不確実性推定を取得しながら、nnU-Net のパフォーマンスを向上させることができます。
私たちの最終モデル MLV$^2$-Net は、人間の参照標準に関して 0.806 の Dice 類似係数を達成しています。
このモデルはさらに、人間の評価者間信頼性と一致し、年齢に関連した MLV ボリュームとの関連性を再現します。
要約(オリジナル)
Meningeal lymphatic vessels (MLVs) are responsible for the drainage of waste products from the human brain. An impairment in their functionality has been associated with aging as well as brain disorders like multiple sclerosis and Alzheimer’s disease. However, MLVs have only recently been described for the first time in magnetic resonance imaging (MRI), and their ramified structure renders manual segmentation particularly difficult. Further, as there is no consistent notion of their appearance, human-annotated MLV structures contain a high inter-rater variability that most automatic segmentation methods cannot take into account. In this work, we propose a new rater-aware training scheme for the popular nnU-Net model, and we explore rater-based ensembling strategies for accurate and consistent segmentation of MLVs. This enables us to boost nnU-Net’s performance while obtaining explicit predictions in different annotation styles and a rater-based uncertainty estimation. Our final model, MLV$^2$-Net, achieves a Dice similarity coefficient of 0.806 with respect to the human reference standard. The model further matches the human inter-rater reliability and replicates age-related associations with MLV volume.
arxiv情報
著者 | Fabian Bongratz,Markus Karmann,Adrian Holz,Moritz Bonhoeffer,Viktor Neumaier,Sarah Deli,Benita Schmitz-Koep,Claus Zimmer,Christian Sorg,Melissa Thalhammer,Dennis M Hedderich,Christian Wachinger |
発行日 | 2024-11-13 11:35:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google