Domain Adaptive Segmentation of Electron Microscopy with Sparse Point Annotations

要約

ミトコンドリアなどのオルガネラ インスタンスの正確なセグメンテーションは、電子顕微鏡分析に不可欠です。
完全に監視された方法の優れたパフォーマンスにもかかわらず、それらは十分なピクセルごとの注釈付きデータに大きく依存しており、ドメイン シフトに敏感です。
競争力のあるパフォーマンスを備えた高度に注釈効率の高いアプローチを開発することを目指して、最小限の注釈作業を必要とするタイプの非常にまばらで弱い注釈、つまり、オブジェクトの小さなサブセットのみに対するまばらな点注釈を必要とするタイプの弱教師付きドメイン適応 (WDA) に焦点を当てます。
インスタンス。
ドメインシフトに起因するパフォーマンスの低下を軽減するために、異なるレベルのドメイン不変性を持つタスクピラミッドを構成する3つの補完的なタスク、つまり、カウント、検出、およびセグメンテーションを実行することにより、マルチレベルの伝達可能な知識を探求します。
この背後にある直感は、関連するソース ドメインを調査した後、ターゲット ドメイン内の同様のオブジェクトを見つける方が、細かい境界線を描くよりもはるかに簡単だということです。
具体的には、スパース監視による検出に対するグローバルな制約としてカウント推定を適用し、セグメンテーションをさらにガイドします。
アノテーションのスパース性をさらに補正するために、位置をまたがるカット アンド ペーストの拡張が導入されました。
広範な検証により、15\% のポイント アノテーションのみを使用したモデルが、教師ありモデルと同等のパフォーマンスを達成できることが示され、アノテーションの選択に対する堅牢性が示されます。

要約(オリジナル)

Accurate segmentation of organelle instances, e.g., mitochondria, is essential for electron microscopy analysis. Despite the outstanding performance of fully supervised methods, they highly rely on sufficient per-pixel annotated data and are sensitive to domain shift. Aiming to develop a highly annotation-efficient approach with competitive performance, we focus on weakly-supervised domain adaptation (WDA) with a type of extremely sparse and weak annotation demanding minimal annotation efforts, i.e., sparse point annotations on only a small subset of object instances. To reduce performance degradation arising from domain shift, we explore multi-level transferable knowledge through conducting three complementary tasks, i.e., counting, detection, and segmentation, constituting a task pyramid with different levels of domain invariance. The intuition behind this is that after investigating a related source domain, it is much easier to spot similar objects in the target domain than to delineate their fine boundaries. Specifically, we enforce counting estimation as a global constraint to the detection with sparse supervision, which further guides the segmentation. A cross-position cut-and-paste augmentation is introduced to further compensate for the annotation sparsity. Extensive validations show that our model with only 15\% point annotations can achieve comparable performance as supervised models and shows robustness to annotation selection.

arxiv情報

著者 Dafei Qiu,Jiajin Yi,Jialin Peng
発行日 2022-10-24 10:50:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク