An Efficient Cervical Whole Slide Image Analysis Framework Based on Multi-scale Semantic and Location Deep Features

要約

デジタルギガピクセル全スライド画像(WSI)は臨床診断で広く使用されており、自動WSI分析はコンピューター支援診断の鍵となります。
現在、ResNet分類器によってエンコードされた大規模なローカルパッチからの確率または機能マップの統合記述子を分析することが、WSIレベルの予測の主な方法です。
ただし、頸部スライドのまばらで小さな病変細胞の特徴表現は依然として困難ですが、未使用の位置表現はセマンティクス分類を提供するために利用できます。
この研究では、InCNetが構築した軽量モデルYOLCO(You Only Look Cytology Once)を使用して、斬新で効率的なフレームワークを設計します。
固定サイズの画像タイルから従来の方法ではなく、単一セル(クラスター)内の特徴を直接抽出します。
InCNet(インライン接続ネットワーク)は、効率を損なうことなくマルチスケール接続を強化します。
この提案では、入力サイズをメガピクセルに拡大して、平均リピートでWSIをステッチできるようにし、2つのスケールで特徴と予測を収集するために$ 10 ^ 3 \ sim10 ^4$から$10^ 1 \ sim10 ^2$に減らしました。
統合されたマルチスケールマルチタスクWSI機能を分類するためのTransformerに基づくと、実験結果は、4つのスキャナーからのデータセット($ n $ = 2,019)の最良の従来モデルよりも$ 0.872$AUCスコアが優れているように見えます。
コードはhttps://github.com/Chrisa142857/You-Only-Look-Cytopathology-Onceで入手できます。ここで、展開バージョンの速度は$ \ sim $ 70 s/WSIです。

要約(オリジナル)

Digital gigapixel whole slide image (WSI) is widely used in clinical diagnosis, and automated WSI analysis is key for computer-aided diagnosis. Currently, analyzing the integrated descriptor of probabilities or feature maps from massive local patches encoded by ResNet classifier is the main manner for WSI-level prediction. Feature representations of the sparse and tiny lesion cells in cervical slides, however, are still challenging, while the unused location representations are available to supply the semantics classification. This study designs a novel and efficient framework with a new module InCNet constructed lightweight model YOLCO (You Only Look Cytology Once). It directly extracts feature inside the single cell (cluster) instead of the traditional way that from image tile with a fixed size. The InCNet (Inline Connection Network) enriches the multi-scale connectivity without efficiency loss. The proposal allows the input size enlarged to megapixel that can stitch the WSI by the average repeats decreased from $10^3\sim10^4$ to $10^1\sim10^2$ for collecting features and predictions at two scales. Based on Transformer for classifying the integrated multi-scale multi-task WSI features, the experimental results appear $0.872$ AUC score better than the best conventional model on our dataset ($n$=2,019) from four scanners. The code is available at https://github.com/Chrisa142857/You-Only-Look-Cytopathology-Once , where the deployment version has the speed $\sim$70 s/WSI.

arxiv情報

著者 Ziquan Wei,Shenghua Cheng,Junbo Hu,Li Chen,Shaoqun Zeng,Xiuli Liu
発行日 2022-06-03 03:53:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク