Acquiring Weak Annotations for Tumor Localization in Temporal and Volumetric Data

要約

AI アルゴリズムをトレーニングするための大規模で十分に注釈が付けられたデータセットを作成することは、自動化された腫瘍の検出と位置特定にとって重要です。
ただし、リソースが限られているため、ラベルのない大量のデータに注釈を付ける場合に最適なタイプの注釈を決定するのは困難です。
この問題に対処するために、私たちは結腸内視鏡検査ビデオでのポリープと腹部 CT スキャンでの膵臓腫瘍に焦点を当てています。
どちらのアプリケーションも、一時的または空間的次元を含むデータの高次元の性質により、ピクセル単位の注釈を付けるには多大な労力と時間を必要とします。
この論文では、注釈プロセスをドラッグ アンド ドロップに簡素化する、ドラッグ アンド ドロップと呼ばれる新しい注釈戦略を開発します。
この注釈戦略は、ピクセル単位、境界ボックス、落書き、楕円、ポイントなどの他のタイプの弱い注釈よりも、特に時間的および体積イメージングの場合に効率的です。
さらに、ドラッグ アンド ドロップ アノテーションを活用するために、ウォーターシェッド アルゴリズムに基づいた新しい弱教師あり学習方法を開発しました。
実験結果は、私たちの方法が代替の弱いアノテーションよりも優れた検出および位置特定パフォーマンスを達成し、さらに重要なことに、詳細なピクセルごとのアノテーションでトレーニングされたものと同様のパフォーマンスを達成することを示しています。
興味深いことに、限られたリソースで、多様な患者集団から弱いアノテーションを割り当てることで、少数の画像セットにピクセルごとのアノテーションを割り当てるよりも、目に見えない画像に対してより堅牢なモデルを育成できることがわかりました。
要約すると、この研究は、ピクセルごとのアノテーションより精度は劣りますが、さまざまな医療モダリティで腫瘍をスクリーニングするための大規模なデータセットを作成するのに役立つ、腫瘍の検出と位置特定のための効率的なアノテーション戦略を提案します。

要約(オリジナル)

Creating large-scale and well-annotated datasets to train AI algorithms is crucial for automated tumor detection and localization. However, with limited resources, it is challenging to determine the best type of annotations when annotating massive amounts of unlabeled data. To address this issue, we focus on polyps in colonoscopy videos and pancreatic tumors in abdominal CT scans; both applications require significant effort and time for pixel-wise annotation due to the high dimensional nature of the data, involving either temporary or spatial dimensions. In this paper, we develop a new annotation strategy, termed Drag&Drop, which simplifies the annotation process to drag and drop. This annotation strategy is more efficient, particularly for temporal and volumetric imaging, than other types of weak annotations, such as per-pixel, bounding boxes, scribbles, ellipses, and points. Furthermore, to exploit our Drag&Drop annotations, we develop a novel weakly supervised learning method based on the watershed algorithm. Experimental results show that our method achieves better detection and localization performance than alternative weak annotations and, more importantly, achieves similar performance to that trained on detailed per-pixel annotations. Interestingly, we find that, with limited resources, allocating weak annotations from a diverse patient population can foster models more robust to unseen images than allocating per-pixel annotations for a small set of images. In summary, this research proposes an efficient annotation strategy for tumor detection and localization that is less accurate than per-pixel annotations but useful for creating large-scale datasets for screening tumors in various medical modalities.

arxiv情報

著者 Yu-Cheng Chou,Bowen Li,Deng-Ping Fan,Alan Yuille,Zongwei Zhou
発行日 2024-02-20 18:43:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク