VOLTA: an Environment-Aware Contrastive Cell Representation Learning for Histopathology

要約

臨床現場では、多くの診断タスクが組織病理画像内の細胞の識別に依存しています。
教師あり機械学習手法にはラベルが必要ですが、セルの数が多いため、手動でセルに注釈を付けるには時間がかかります。
この論文では、改善された細胞表現のために細胞とその環境との相互関係を説明する新しい手法を使用して、組織病理学画像における細胞表現学習のための自己教師ありフレームワーク (VOLTA) を提案します。
700,000 を超える細胞、4 つのがんタイプ、および各データセットの 3 から 6 のカテゴリに及ぶ細胞タイプで構成される、世界中の複数の機関から収集されたデータに対して、モデルを広範な実験にかけました。
結果は、私たちのモデルが細胞表現学習において最先端のモデルよりも優れていることを示しています。
提案されたフレームワークの潜在的な力を紹介するために、非常に小さなサンプル サイズ (10 ~ 20 サンプル) で卵巣がんと子宮内膜がんに VOLTA を適用し、細胞表現を利用して卵巣がんの既知の組織型を特定し、新しい洞察を提供できることを実証しました。
子宮内膜がんの組織病理学と分子サブタイプを関連付けます。
トレーニングに大きなサンプル サイズを必要とする教師ありディープ ラーニング モデルとは異なり、サンプル サイズが限られている状況で、注釈データなしで新しい発見を可能にするフレームワークを提供します。

要約(オリジナル)

In clinical practice, many diagnosis tasks rely on the identification of cells in histopathology images. While supervised machine learning techniques require labels, providing manual cell annotations is time-consuming due to the large number of cells. In this paper, we propose a self-supervised framework (VOLTA) for cell representation learning in histopathology images using a novel technique that accounts for the cell’s mutual relationship with its environment for improved cell representations. We subjected our model to extensive experiments on the data collected from multiple institutions around the world comprising of over 700,000 cells, four cancer types, and cell types ranging from three to six categories for each dataset. The results show that our model outperforms the state-of-the-art models in cell representation learning. To showcase the potential power of our proposed framework, we applied VOLTA to ovarian and endometrial cancers with very small sample sizes (10-20 samples) and demonstrated that our cell representations can be utilized to identify the known histotypes of ovarian cancer and provide novel insights that link histopathology and molecular subtypes of endometrial cancer. Unlike supervised deep learning models that require large sample sizes for training, we provide a framework that can empower new discoveries without any annotation data in situations where sample sizes are limited.

arxiv情報

著者 Ramin Nakhli,Allen Zhang,Hossein Farahani,Amirali Darbandsari,Elahe Shenasa,Sidney Thiessen,Katy Milne,Jessica McAlpine,Brad Nelson,C Blake Gilks,Ali Bashashati
発行日 2023-03-08 16:35:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, q-bio.QM パーマリンク