要約
教師あり機械学習アルゴリズムをトレーニングするためのデータセットの作成は、困難な作業となる場合があります。
これは特に医療画像のセグメンテーションに当てはまります。画像の注釈付けには通常 1 人以上の専門家が必要であり、単一の画像に対してグラウンド トゥルース ラベルを作成するには最大で数時間かかる場合があるためです。
さらに、注釈付きのサンプルが、画像取得プロセスで起こり得る変化だけでなく、画像化された組織に影響を与える可能性のあるさまざまな条件をよく表していることが最も重要です。
これは、データセット内の典型的なサンプルだけでなく、非典型的なサンプル、さらには外れ値のサンプルも考慮することによってのみ達成できます。
VessMAP は、大規模な注釈のないデータセットから関連する画像を慎重にサンプリングすることによって取得された異種血管セグメンテーション データセットです。
基本データセットから原型サンプルと非典型サンプルの両方を選択するための方法論が開発されました。これにより、互いに非常に異なるサンプルに対するセグメンテーション アルゴリズムのパフォーマンスを測定するために使用できるさまざまな画像セットが定義されます。
新しいデータセットの可能性を実証するために、ニューラル ネットワークの検証パフォーマンスが、ネットワークのトレーニングに使用される分割に応じて大幅に変化することを示します。
要約(オリジナル)
Creating a dataset for training supervised machine learning algorithms can be a demanding task. This is especially true for medical image segmentation since one or more specialists are usually required for image annotation, and creating ground truth labels for just a single image can take up to several hours. In addition, it is paramount that the annotated samples represent well the different conditions that might affect the imaged tissues as well as possible changes in the image acquisition process. This can only be achieved by considering samples that are typical in the dataset as well as atypical, or even outlier, samples. We introduce VessMAP, a heterogeneous blood vessel segmentation dataset acquired by carefully sampling relevant images from a larger non-annotated dataset. A methodology was developed to select both prototypical and atypical samples from the base dataset, thus defining an assorted set of images that can be used for measuring the performance of segmentation algorithms on samples that are highly distinct from each other. To demonstrate the potential of the new dataset, we show that the validation performance of a neural network changes significantly depending on the splits used for training the network.
arxiv情報
著者 | Matheus Viana da Silva,Natália de Carvalho Santos,Julie Ouellette,Baptiste Lacoste,Cesar Henrique Comin |
発行日 | 2024-04-18 15:50:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google