The impact of training dataset size and ensemble inference strategies on head and neck auto-segmentation

要約

畳み込みニューラル ネットワーク (CNN) は、放射線治療におけるリスクのある臓器のセグメンテーションを自動化するためにますます使用されています。
高度に精選された大規模なデータ セットが不足しているため、正確で堅牢な頭と首の自動セグメンテーション モデルをトレーニングするために必要なデータの量を調査しました。
このために、確立された 3D CNN は、さまざまなサイズのデータ​​セット (25 ~ 1000 スキャン) を使用してゼロからトレーニングされ、CT で脳幹、耳下腺、および脊髄をセグメント化しました。
さらに、複数のアンサンブル手法を評価して、これらのモデルのパフォーマンスを向上させました。
セグメンテーションは、最大 250 スキャンのトレーニング セット サイズで改善され、アンサンブル メソッドにより、すべての臓器のパフォーマンスが大幅に改善されました。
アンサンブル メソッドの影響は、最小のデータセットで最も顕著であり、大規模なトレーニング データセットを取得するのが難しい場合に使用できる可能性があることを示しています。

要約(オリジナル)

Convolutional neural networks (CNNs) are increasingly being used to automate segmentation of organs-at-risk in radiotherapy. Since large sets of highly curated data are scarce, we investigated how much data is required to train accurate and robust head and neck auto-segmentation models. For this, an established 3D CNN was trained from scratch with different sized datasets (25-1000 scans) to segment the brainstem, parotid glands and spinal cord in CTs. Additionally, we evaluated multiple ensemble techniques to improve the performance of these models. The segmentations improved with training set size up to 250 scans and the ensemble methods significantly improved performance for all organs. The impact of the ensemble methods was most notable in the smallest datasets, demonstrating their potential for use in cases where large training datasets are difficult to obtain.

arxiv情報

著者 Edward G. A. Henderson,Marcel van Herk,Eliana M. Vasquez Osorio
発行日 2023-03-30 12:14:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク