A Multi-Modality Ovarian Tumor Ultrasound Image Dataset for Unsupervised Cross-Domain Semantic Segmentation

要約

卵巣がんは、最も有害な婦人科疾患の 1 つです。
コンピューター支援技術を使用して早期に卵巣腫瘍を検出すると、死亡率を効率的に下げることができます。
医療水準の向上に伴い、超音波画像は広く臨床に応用されています。
ただし、最近の注目すべき方法は、主に単一モダリティの超音波卵巣腫瘍のセグメンテーションまたは認識に焦点を当てています。つまり、マルチモダリティの超音波卵巣腫瘍画像の表現能力を調査する研究はまだ不足しています。
この問題を解決するために、1469 の 2d 超音波画像と 170 の造影超音波検査 (CEUS) 画像を含むマルチモダリティ卵巣腫瘍超音波 (MMOTU) 画像データセットをピクセル単位およびグローバル単位の注釈と共に提案します。
MMOTUに基づいて、主に教師なしクロスドメインセマンティックセグメンテーションタスクに焦点を当てています。
ドメイン シフトの問題を解決するために、Dual-Scheme Domain-Selected Network (DS2Net) という機能アライメント ベースのアーキテクチャを提案します。
具体的には、まずソース エンコーダーとターゲット エンコーダーを設計して、ソース イメージとターゲット イメージの 2 つのスタイルの特徴を抽出します。
次に、Domain-Distinct Selected Module (DDSM) と Domain-Universal Selected Module (DUSM) を提案して、2 つのスタイル (ソース スタイルまたはターゲット スタイル) で明確で普遍的な機能を抽出します。
最後に、これら 2 種類の特徴を融合し、ソース デコーダーとターゲット デコーダーにフィードして、最終的な予測を生成します。
MMOTU 画像データセットに関する広範な比較実験と分析により、DS2Net が 2D 超音波画像と CEUS 画像の双方向のクロスドメイン適応のセグメンテーション パフォーマンスを向上できることが示されています。
提案されたデータセットとコードはすべて、https://github.com/cv516Buaa/MMOTU_DS2Net で入手できます。

要約(オリジナル)

Ovarian cancer is one of the most harmful gynecological diseases. Detecting ovarian tumors in early stage with computer-aided techniques can efficiently decrease the mortality rate. With the improvement of medical treatment standard, ultrasound images are widely applied in clinical treatment. However, recent notable methods mainly focus on single-modality ultrasound ovarian tumor segmentation or recognition, which means there still lacks researches on exploring the representation capability of multi-modality ultrasound ovarian tumor images. To solve this problem, we propose a Multi-Modality Ovarian Tumor Ultrasound (MMOTU) image dataset containing 1469 2d ultrasound images and 170 contrast enhanced ultrasonography (CEUS) images with pixel-wise and global-wise annotations. Based on MMOTU, we mainly focus on unsupervised cross-domain semantic segmentation task. To solve the domain shift problem, we propose a feature alignment based architecture named Dual-Scheme Domain-Selected Network (DS2Net). Specifically, we first design source-encoder and target-encoder to extract two-style features of source and target images. Then, we propose Domain-Distinct Selected Module (DDSM) and Domain-Universal Selected Module (DUSM) to extract the distinct and universal features in two styles (source-style or target-style). Finally, we fuse these two kinds of features and feed them into the source-decoder and target-decoder to generate final predictions. Extensive comparison experiments and analysis on MMOTU image dataset show that DS2Net can boost the segmentation performance for bidirectional cross-domain adaptation of 2d ultrasound images and CEUS images. Our proposed dataset and code are all available at https://github.com/cv516Buaa/MMOTU_DS2Net.

arxiv情報

著者 Qi Zhao,Shuchang Lyu,Wenpei Bai,Linghan Cai,Binghao Liu,Meijing Wu,Xiubo Sang,Min Yang,Lijiang Chen
発行日 2022-08-26 17:17:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク