要約
心臓磁気共鳴 (CMR) イメージングの品質は、呼吸運動アーティファクトの影響を受けやすくなっています。
現実世界の呼吸運動アーティファクトに直面した自動セグメンテーション技術のモデルの堅牢性は不明です。
この原稿では、呼吸運動 (CMRxMotion チャレンジ) の下での極端な心臓 MRI 解析チャレンジの設計について説明します。
この課題は、画像品質に対する呼吸運動の影響を評価し、セグメンテーション モデルの堅牢性を調べるための公開ベンチマーク データセットを確立することを目的としています。
チャレンジでは、40 人の健康なボランティアを募集して、1 回のイメージング訪問中にさまざまな息止め動作を実行し、アーティファクトとペアになったシネ イメージングを取得しました。
放射線科医は画質を評価し、呼吸運動アーティファクトのレベルに注釈を付けました。
診断品質を備えたこれらの画像について、放射線科医はさらに左心室、左心室の心筋層、および右心室をセグメント化しました。
自動画質評価モデル (タスク 1) と自動セグメンテーション モデル (タスク 2) を開発するために、トレーニング セット (20 人のボランティア) の画像と注釈がチャレンジ参加者に公開されます。
検証セット (5 人のボランティア) の画像はチャレンジ参加者に公開されますが、提出された予測のオンライン評価のために注釈は差し控えられます。
テスト セット (15 人のボランティア) の画像と注釈は保留され、提出されたコンテナー化された Docker のオフライン評価にのみ使用されました。
画質評価タスクは Cohen のカッパ統計によって定量的に評価され、セグメンテーション タスクはダイス スコアとハウスドルフ距離によって評価されます。
要約(オリジナル)
The quality of cardiac magnetic resonance (CMR) imaging is susceptible to respiratory motion artifacts. The model robustness of automated segmentation techniques in face of real-world respiratory motion artifacts is unclear. This manuscript describes the design of extreme cardiac MRI analysis challenge under respiratory motion (CMRxMotion Challenge). The challenge aims to establish a public benchmark dataset to assess the effects of respiratory motion on image quality and examine the robustness of segmentation models. The challenge recruited 40 healthy volunteers to perform different breath-hold behaviors during one imaging visit, obtaining paired cine imaging with artifacts. Radiologists assessed the image quality and annotated the level of respiratory motion artifacts. For those images with diagnostic quality, radiologists further segmented the left ventricle, left ventricle myocardium and right ventricle. The images of training set (20 volunteers) along with the annotations are released to the challenge participants, to develop an automated image quality assessment model (Task 1) and an automated segmentation model (Task 2). The images of validation set (5 volunteers) are released to the challenge participants but the annotations are withheld for online evaluation of submitted predictions. Both the images and annotations of the test set (15 volunteers) were withheld and only used for offline evaluation of submitted containerized dockers. The image quality assessment task is quantitatively evaluated by the Cohen’s kappa statistics and the segmentation task is evaluated by the Dice scores and Hausdorff distances.
arxiv情報
著者 | Shuo Wang,Chen Qin,Chengyan Wang,Kang Wang,Haoran Wang,Chen Chen,Cheng Ouyang,Xutong Kuang,Chengliang Dai,Yuanhan Mo,Zhang Shi,Chenchen Dai,Xinrong Chen,He Wang,Wenjia Bai |
発行日 | 2022-10-12 16:38:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google