3D Universal Lesion Detection and Tagging in CT with Self-Training

要約

放射線科医は、コンピューター断層撮影(CT)研究における病変局在、分類、およびサイズ測定の退屈なタスクを日常的に実行します。
普遍的な病変検出とタグ(ULDT)は、病変測定の面倒な性質を緩和し、腫瘍の負担評価を可能にするのに同時に役立ちます。
以前のULDTアプローチは、公開されているDeeplesionデータセットを利用していますが、病変の完全な(3D)範囲を提供せず、深刻なクラスの不均衡も示しています。
この作業では、3D病変を検出し、発生する身体の部分に従ってタグ付けするセルフトレーニングパイプラインを提案します。2D病変の検出とタグ付けのためにVFNETモデルを訓練するために、deeplesionの30 \%サブセットを大幅に制限しました。
次に、2D病変のコンテキストが3Dに拡張され、マイニングされた3D病変提案は、複数のラウンドでモデルを再訓練するためにベースライントレーニングデータに統合されました。
自己訓練手順を通じて、VFNETモデルは独自の予測から学び、3Dで病変を検出し、タグ付けしました。
我々の結果は、我々のVFNETモデルが[0.125:8]誤検知(FP)で46.9%の平均感度を達成し、deeplesionデータセット全体を使用した既存のアプローチの46.8 \%と比較して、限られた30 \%のデータサブセットを使用したことを示しています。
私たちの知る限り、私たちは3Dの病変を共同で共同で検出し、ボディパーツラベルに従ってタグを付けた最初の人です。

要約(オリジナル)

Radiologists routinely perform the tedious task of lesion localization, classification, and size measurement in computed tomography (CT) studies. Universal lesion detection and tagging (ULDT) can simultaneously help alleviate the cumbersome nature of lesion measurement and enable tumor burden assessment. Previous ULDT approaches utilize the publicly available DeepLesion dataset, however it does not provide the full volumetric (3D) extent of lesions and also displays a severe class imbalance. In this work, we propose a self-training pipeline to detect 3D lesions and tag them according to the body part they occur in. We used a significantly limited 30\% subset of DeepLesion to train a VFNet model for 2D lesion detection and tagging. Next, the 2D lesion context was expanded into 3D, and the mined 3D lesion proposals were integrated back into the baseline training data in order to retrain the model over multiple rounds. Through the self-training procedure, our VFNet model learned from its own predictions, detected lesions in 3D, and tagged them. Our results indicated that our VFNet model achieved an average sensitivity of 46.9\% at [0.125:8] false positives (FP) with a limited 30\% data subset in comparison to the 46.8\% of an existing approach that used the entire DeepLesion dataset. To our knowledge, we are the first to jointly detect lesions in 3D and tag them according to the body part label.

arxiv情報

著者 Jared Frazier,Tejas Sudharshan Mathai,Jianfei Liu,Angshuman Paul,Ronald M. Summers
発行日 2025-04-07 15:50:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク