BFS-Net: Weakly Supervised Cell Instance Segmentation from Bright-Field Microscopy Z-Stacks

要約

明視野顕微鏡(BFM)による体積情報取得は、その有用性にもかかわらず、取得プロセスの投影的性質により本質的に困難である。我々は、BFMのZ-Stack画像から3次元細胞インスタンスを予測することを研究している。我々は、細胞の体積インスタンス分割のための新しい2段階の弱教師付き手法を提案する。この手法は、近似的な細胞の中心点の注釈を必要とするだけである。また、作成された擬似ラベルは、Zスタックガイドを用いた新しい精密化損失により精密化される。評価により、我々のアプローチはBFM Z-Stackデータだけでなく、他の3D細胞イメージングモダリティにも一般化できることが示された。また、本パイプラインを完全教師あり手法と比較した結果、データ収集とラベリングを削減することで得られる大きな利益は、わずかな性能差であることが示された。

要約(オリジナル)

Despite its broad availability, volumetric information acquisition from Bright-Field Microscopy (BFM) is inherently difficult due to the projective nature of the acquisition process. We investigate the prediction of 3D cell instances from a set of BFM Z-Stack images. We propose a novel two-stage weakly supervised method for volumetric instance segmentation of cells which only requires approximate cell centroids annotation. Created pseudo-labels are thereby refined with a novel refinement loss with Z-stack guidance. The evaluations show that our approach can generalize not only to BFM Z-Stack data, but to other 3D cell imaging modalities. A comparison of our pipeline against fully supervised methods indicates that the significant gain in reduced data collection and labelling results in minor performance difference.

arxiv情報

著者 Shervin Dehghani,Benjamin Busam,Nassir Navab,Ali Nasseri
発行日 2022-06-09 15:13:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク