Magnification Prior: A Self-Supervised Method for Learning Representations on Breast Cancer Histopathological Images

要約

本研究では、拡大率を利用した病理組織医学画像において、ラベルを用いない効率的な表現を学習するための、新しい自己教師付き事前学習法を提案する。他の最先端研究は、主に人間のアノテーションに大きく依存する完全教師あり学習アプローチに焦点を当てている。しかし、ラベル付きデータおよびラベルなしデータの不足は、病理組織学における長年の課題である。現在、ラベルを用いない表現学習は、病理組織学の領域では未開拓のままである。提案手法であるMagnification Prior Contrastive Similarity (MPCS) は、小規模乳癌データセットBreakHisに対して、拡大率、帰納的伝達、人間の事前分布を利用することで、ラベルを用いない自己教師付き学習が可能である。提案手法は、ラベルの20%のみを微調整に用いた場合の悪性腫瘍分類において、完全教師あり学習の最先端性能と一致し、完全教師あり学習環境における先行研究を上回る性能を発揮する。本研究では、人間優先度を下げることが自己教師あり学習における効率的な表現学習につながるという仮説を立て、それを支持する経験的証拠を提供する。本研究の実装はGitHub – https://github.com/prakashchhipa/Magnification-Prior-Self-Supervised-Method でオンライン公開されています。

要約(オリジナル)

This work presents a novel self-supervised pre-training method to learn efficient representations without labels on histopathology medical images utilizing magnification factors. Other state-of-theart works mainly focus on fully supervised learning approaches that rely heavily on human annotations. However, the scarcity of labeled and unlabeled data is a long-standing challenge in histopathology. Currently, representation learning without labels remains unexplored for the histopathology domain. The proposed method, Magnification Prior Contrastive Similarity (MPCS), enables self-supervised learning of representations without labels on small-scale breast cancer dataset BreakHis by exploiting magnification factor, inductive transfer, and reducing human prior. The proposed method matches fully supervised learning state-of-the-art performance in malignancy classification when only 20% of labels are used in fine-tuning and outperform previous works in fully supervised learning settings. It formulates a hypothesis and provides empirical evidence to support that reducing human-prior leads to efficient representation learning in self-supervision. The implementation of this work is available online on GitHub – https://github.com/prakashchhipa/Magnification-Prior-Self-Supervised-Method

arxiv情報

著者 Prakash Chandra Chhipa,Richa Upadhyay,Gustav Grund Pihlgren,Rajkumar Saini,Seiichi Uchida,Marcus Liwicki
発行日 2022-09-08 10:46:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク