Interactive Image Selection and Training for Brain Tumor Segmentation Network

要約

医療画像のセグメンテーションは関連する問題であり、深層学習がその要因となります。
ただし、大規模なモデルをトレーニングするために完全に注釈が付けられた大量の画像が必要であることは、特に、さまざまなサイズや形状で発生する可能性がある脳腫瘍など、画像が非常に多様性を示すアプリケーションの場合には問題になる可能性があります。
対照的に、最近の方法論、Feature Learning from Image Markers (FLIM) では、学習ループに専門家が関与し、畳み込み層のトレーニングに必要な画像がほとんどない小規模なネットワークが生成されます。
この研究では、FLIM に基づいた画像の選択とトレーニングに対話型の方法を採用し、ユーザーの知識を探索します。
その結果、私たちの方法論を使用すると、U 字型ネットワークのエンコーダーをトレーニングするために小さな画像セットを選択でき、手動選択と同等のパフォーマンスが得られ、バックプロパゲーションとすべてのトレーニング画像でトレーニングされた同じ U 字型ネットワークをも上回ることが実証されました。

要約(オリジナル)

Medical image segmentation is a relevant problem, with deep learning being an exponent. However, the necessity of a high volume of fully annotated images for training massive models can be a problem, especially for applications whose images present a great diversity, such as brain tumors, which can occur in different sizes and shapes. In contrast, a recent methodology, Feature Learning from Image Markers (FLIM), has involved an expert in the learning loop, producing small networks that require few images to train the convolutional layers. In this work, We employ an interactive method for image selection and training based on FLIM, exploring the user’s knowledge. The results demonstrated that with our methodology, we could choose a small set of images to train the encoder of a U-shaped network, obtaining performance equal to manual selection and even surpassing the same U-shaped network trained with backpropagation and all training images.

arxiv情報

著者 Matheus A. Cerqueira,Flávia Sprenger,Bernardo C. A. Teixeira,Alexandre X. Falcão
発行日 2024-06-05 13:03:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, 68T45, cs.CV パーマリンク