Compositional Representation Learning for Brain Tumour Segmentation

要約

脳腫瘍のセグメンテーションの場合、深層学習モデルは、大量のデータとピクセルレベルの注釈が与えられた場合に、人間の専門家レベルのパフォーマンスを達成できます。
ただし、大量のデータに対してピクセルレベルのアノテーションを取得するという高価な作業は常に実行可能であるとは限らず、アノテーションが少ないデータ領域ではパフォーマンスが大幅に低下することがよくあります。
この課題に取り組むために、混合監視フレームワークである vMFNet を適応させ、非網羅的なピクセルレベルの病理ラベルとともに教師なし学習と弱い監視を使用して堅牢な構成表現を学習します。
特に、BraTS データセットを使用して、腫瘍の上部と下部のスライス (または腫瘍サブ領域: 腫瘍周囲浮腫、GD 増強腫瘍、壊死性/非増強性腫瘍) を示す 2 点の専門家による病理学的アノテーションのコレクションをシミュレートします。
これにより、画像内の腫瘍 (または腫瘍サブ領域) の有無を示す弱い画像レベルのラベルが構築されます。
次に、vMFNet は、画像内の構造に関する情報をキャプチャする学習可能な構成 vMF カーネルを介して、von-Mises-Fisher (vMF) 分布を使用してエンコードされた画像の特徴をモデル化します。
我々は、大量の弱くラベル付けされたデータを使用しても良好な腫瘍セグメンテーションのパフォーマンスが達成できるが、完全にアノテーションが付けられたデータは少量しかないことを示します。
興味深いことに、解剖学的構造の創発的な学習は、病理 (腫瘍) に関連する監視のみが与えられた場合でも、構成表現で発生します。

要約(オリジナル)

For brain tumour segmentation, deep learning models can achieve human expert-level performance given a large amount of data and pixel-level annotations. However, the expensive exercise of obtaining pixel-level annotations for large amounts of data is not always feasible, and performance is often heavily reduced in a low-annotated data regime. To tackle this challenge, we adapt a mixed supervision framework, vMFNet, to learn robust compositional representations using unsupervised learning and weak supervision alongside non-exhaustive pixel-level pathology labels. In particular, we use the BraTS dataset to simulate a collection of 2-point expert pathology annotations indicating the top and bottom slice of the tumour (or tumour sub-regions: peritumoural edema, GD-enhancing tumour, and the necrotic / non-enhancing tumour) in each MRI volume, from which weak image-level labels that indicate the presence or absence of the tumour (or the tumour sub-regions) in the image are constructed. Then, vMFNet models the encoded image features with von-Mises-Fisher (vMF) distributions, via learnable and compositional vMF kernels which capture information about structures in the images. We show that good tumour segmentation performance can be achieved with a large amount of weakly labelled data but only a small amount of fully-annotated data. Interestingly, emergent learning of anatomical structures occurs in the compositional representation even given only supervision relating to pathology (tumour).

arxiv情報

著者 Xiao Liu,Antanas Kascenas,Hannah Watson,Sotirios A. Tsaftaris,Alison Q. O’Neil
発行日 2023-10-10 12:19:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク