SC-MIL: Supervised Contrastive Multiple Instance Learning for Imbalanced Classification in Pathology

要約

複数インスタンス学習 (MIL) モデルは病理学で広く使用されており、バイオマーカーを予測し、ギガピクセル サイズの画像から患者をリスク層別化しています。
医用画像における機械学習の問題は、希少疾患を扱うことが多いため、これらのモデルがラベルの不均衡な設定で機能することが重要になります。
さらに、これらの不均衡は、モデルが現実の世界に展開されたときに、分布外 (OOD) データセットで発生する可能性があります。
特徴と分類器の学習を切り離すことで、ラベルの不均衡なデータセットの決定境界が改善されるという考えを活用します。
この目的のために、教師あり対照学習と複数インスタンス学習 (SC-MIL) の統合を調査します。
具体的には、ラベルの不均衡が存在する場合に、バッグレベルの表現の学習から最適な分類器の学習に徐々に移行する共同トレーニング MIL フレームワークを提案します。
非小細胞肺がんのサブタイピングと腎細胞がんのサブタイピングという、よく研究されているがん病理学の問題について、さまざまな不均衡設定で実験を行います。
SC-MIL は、複数の不均衡な設定にまたがる配布内 (ID) セットと OOD ホールドアウト セットの両方で、他の手法よりも大きく一貫した改善を提供します。

要約(オリジナル)

Multiple Instance learning (MIL) models have been extensively used in pathology to predict biomarkers and risk-stratify patients from gigapixel-sized images. Machine learning problems in medical imaging often deal with rare diseases, making it important for these models to work in a label-imbalanced setting. Furthermore, these imbalances can occur in out-of-distribution (OOD) datasets when the models are deployed in the real-world. We leverage the idea that decoupling feature and classifier learning can lead to improved decision boundaries for label imbalanced datasets. To this end, we investigate the integration of supervised contrastive learning with multiple instance learning (SC-MIL). Specifically, we propose a joint-training MIL framework in the presence of label imbalance that progressively transitions from learning bag-level representations to optimal classifier learning. We perform experiments with different imbalance settings for two well-studied problems in cancer pathology: subtyping of non-small cell lung cancer and subtyping of renal cell carcinoma. SC-MIL provides large and consistent improvements over other techniques on both in-distribution (ID) and OOD held-out sets across multiple imbalanced settings.

arxiv情報

著者 Dinkar Juyal,Siddhant Shingi,Syed Ashar Javed,Harshith Padigela,Chintan Shah,Anand Sampat,Archit Khosla,John Abel,Amaro Taylor-Weiner
発行日 2023-03-23 16:28:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク