要約
隣接する軟組織間のコントラストが低いため、頭頸部 (H&N) 領域の CT 画像におけるターゲットのセグメンテーションは困難です。
SegRap 2023 チャレンジは、放射線治療計画の目的で自動輪郭ツールとして使用される上咽頭癌 (NPC) のセグメンテーション アルゴリズムのベンチマークに焦点を当てています。
我々は完全自動フレームワークを提案し、a) 45 の危険臓器 (OAR) のセグメンテーション、および b) 2 つの総腫瘍体積 (GTV) のための 2 つのモデルを開発します。
この目的を達成するために、強度分布を調和させて画像ボリュームを前処理し、ターゲット領域の周囲のボリュームを自動的にトリミングします。
前処理されたボリュームは、各タスクの標準 3D U-Net モデルを個別にトレーニングするために使用されました。
私たちの手法は、課題の検証フェーズの各タスクで 2 位になりました。
提案されたフレームワークは https://github.com/Astarakee/segrap2023 で入手できます。
要約(オリジナル)
Target segmentation in CT images of Head&Neck (H&N) region is challenging due to low contrast between adjacent soft tissue. The SegRap 2023 challenge has been focused on benchmarking the segmentation algorithms of Nasopharyngeal Carcinoma (NPC) which would be employed as auto-contouring tools for radiation treatment planning purposes. We propose a fully-automatic framework and develop two models for a) segmentation of 45 Organs at Risk (OARs) and b) two Gross Tumor Volumes (GTVs). To this end, we preprocess the image volumes by harmonizing the intensity distributions and then automatically cropping the volumes around the target regions. The preprocessed volumes were employed to train a standard 3D U-Net model for each task, separately. Our method took second place for each of the tasks in the validation phase of the challenge. The proposed framework is available at https://github.com/Astarakee/segrap2023
arxiv情報
著者 | Mehdi Astaraki,Simone Bendazzoli,Iuliana Toma-Dasu |
発行日 | 2023-10-04 17:10:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google