要約
複数インスタンス学習 (MIL) モデルは、疾患分類問題の全スライド画像 (WSI) の分析で目覚ましい成功を収めました。
ただし、ギガピクセルの WSI 分類の問題に関しては、現在の MIL モデルでは、非常に小さな腫瘍病変を持つ WSI を区別できないことがよくあります。
この MIL バッグ内の腫瘍と正常な領域のわずかな比率は、注意メカニズムが小さな腫瘍病変に対応する領域を適切に重み付けすることを妨げます。
この課題を克服するために、WSI 分類用の弱教師付き MIL モデルである顕著なインスタンス推論 MIL (SiiMIL) を提案します。
この方法は、最初に通常の WSI の表現を学習し、次に通常の WSI 表現をすべての入力パッチと比較して、入力 WSI の顕著なインスタンスを推測します。
最後に、アテンション ベースの MIL を使用して、WSI の選択されたパッチに基づいてスライド レベルの分類を実行します。
私たちの実験は、SiiMILがWSIの1%未満しか占めない腫瘍インスタンスを正確に識別できるため、バッグ内の正常インスタンスに対する腫瘍の比率が2〜4倍に増加する可能性があることを示唆しています.
大きな腫瘍病変に対しても同様に機能することは注目に値します。
その結果、SiiMIL は、最先端の MIL メソッドよりもパフォーマンスが大幅に向上しています。
要約(オリジナル)
Multiple instance learning (MIL) models have achieved remarkable success in analyzing whole slide images (WSIs) for disease classification problems. However, with regard to gigapixel WSI classification problems, current MIL models are often incapable of differentiating a WSI with extremely small tumor lesions. This minute tumor-to-normal area ratio in a MIL bag inhibits the attention mechanism from properly weighting the areas corresponding to minor tumor lesions. To overcome this challenge, we propose salient instance inference MIL (SiiMIL), a weakly-supervised MIL model for WSI classification. Our method initially learns representations of normal WSIs, and it then compares the normal WSIs representations with all the input patches to infer the salient instances of the input WSI. Finally, it employs attention-based MIL to perform the slide-level classification based on the selected patches of the WSI. Our experiments imply that SiiMIL can accurately identify tumor instances, which could only take up less than 1% of a WSI, so that the ratio of tumor to normal instances within a bag can increase by two to four times. It is worth mentioning that it performs equally well for large tumor lesions. As a result, SiiMIL achieves a significant improvement in performance over the state-of-the-art MIL methods.
arxiv情報
著者 | Ziyu Su,Mostafa Rezapour,Usama Sajjad,Metin Nafi Gurcan,Muhammad Khalid Khan Niazi |
発行日 | 2023-01-18 18:42:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google