要約
顕微鏡画像内のオブジェクトのセグメンテーションは、多くの生物医学用途に必要です。
オブジェクト中心埋め込み (OCE) を導入します。これは、同じオブジェクトから切り取られたパッチ間の空間オフセットが保持されるように画像パッチを埋め込みます。
これらの学習された埋め込みを使用して、個々のオブジェクトを描写し、インスタンスのセグメンテーションを取得できます。
ここでは、顕微鏡画像で一般的に見られる仮定の下で、画像パッチ間の空間オフセットを予測する自己教師ありタスクを通じて OCE を学習できることを理論的に示します。
これらを組み合わせて、9 つの多様な大規模顕微鏡データセットで評価する教師なしセル インスタンス セグメンテーション手法が形成されます。
私たちの方法で得られたセグメンテーションは、9 つのデータセットのうち 6 つのデータセットで最先端のベースラインと比較して結果が大幅に向上し、残りの 3 つのデータセットでは同等のパフォーマンスを示します。
グラウンドトゥルースのアノテーションが利用可能な場合、私たちの方法は教師ありトレーニングの優れた出発点として機能し、必要なグラウンドトゥルースの量を 1 桁削減できるため、私たちの方法の実際的な適用可能性が大幅に高まります。
ソースコードは https://github.com/funkelab/cellulus で入手できます。
要約(オリジナル)
Segmentation of objects in microscopy images is required for many biomedical applications. We introduce object-centric embeddings (OCEs), which embed image patches such that the spatial offsets between patches cropped from the same object are preserved. Those learnt embeddings can be used to delineate individual objects and thus obtain instance segmentations. Here, we show theoretically that, under assumptions commonly found in microscopy images, OCEs can be learnt through a self-supervised task that predicts the spatial offset between image patches. Together, this forms an unsupervised cell instance segmentation method which we evaluate on nine diverse large-scale microscopy datasets. Segmentations obtained with our method lead to substantially improved results, compared to state-of-the-art baselines on six out of nine datasets, and perform on par on the remaining three datasets. If ground-truth annotations are available, our method serves as an excellent starting point for supervised training, reducing the required amount of ground-truth needed by one order of magnitude, thus substantially increasing the practical applicability of our method. Source code is available at https://github.com/funkelab/cellulus.
arxiv情報
著者 | Steffen Wolf,Manan Lalit,Henry Westmacott,Katie McDole,Jan Funke |
発行日 | 2023-10-12 16:59:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google