One-Vote Veto: Semi-Supervised Learning for Low-Shot Glaucoma Diagnosis

要約

畳み込みニューラル ネットワーク (CNN) は、眼底の画像から緑内障を自動診断するための有望な技術であり、これらの画像は眼科検査の一部として日常的に取得されます。
それにもかかわらず、CNN は通常、トレーニングのために適切にラベル付けされた大量のデータを必要としますが、特に病気がまれで専門家によるラベル付けにコストがかかる場合には、多くの生物医学画像分類アプリケーションでは利用できない可能性があります。
この記事は、この問題に対処するために 2 つの貢献を行っています。(1) 従来の Siamese ネットワークを拡張し、ラベル付きデータが制限され不均衡な場合のローショット学習のトレーニング方法を導入します。(2) 新しい半教師あり学習戦略を導入します。
追加のラベルなしトレーニング データを使用して、より高い精度を実現します。
私たちが提案するマルチタスク シャム ネットワーク (MTSN) は、任意のバックボーン CNN を使用でき、限られたトレーニング データでの精度が 50 倍大きいデータセットでトレーニングされたバックボーン CNN の精度に近づくことを 4 つのバックボーン CNN で実証します。
また、MTSN 向けに特別に設計された半教師あり学習戦略である One-Vote Veto (OVV) セルフ トレーニングも紹介します。
ラベルなしトレーニング データの自己予測と対照的予測の両方を考慮することにより、OVV 自己トレーニングは、事前トレーニングされた MTSN を微調整するための追加の擬似ラベルを提供します。
15 年間にわたって取得された 66,715 枚の眼底写真を含む大規模な(不均衡な)データセットを使用した広範な実験結果により、MTSN によるローショット学習と OVV 自己学習による半教師あり学習の有効性が実証されました。
提案された方法の一般化可能性を実証するために、異なる条件 (カメラ、機器、場所、集団) で取得された眼底画像の 3 つの追加の小規模な臨床データセットが使用されます。

要約(オリジナル)

Convolutional neural networks (CNNs) are a promising technique for automated glaucoma diagnosis from images of the fundus, and these images are routinely acquired as part of an ophthalmic exam. Nevertheless, CNNs typically require a large amount of well-labeled data for training, which may not be available in many biomedical image classification applications, especially when diseases are rare and where labeling by experts is costly. This article makes two contributions to address this issue: (1) It extends the conventional Siamese network and introduces a training method for low-shot learning when labeled data are limited and imbalanced, and (2) it introduces a novel semi-supervised learning strategy that uses additional unlabeled training data to achieve greater accuracy. Our proposed multi-task Siamese network (MTSN) can employ any backbone CNN, and we demonstrate with four backbone CNNs that its accuracy with limited training data approaches the accuracy of backbone CNNs trained with a dataset that is 50 times larger. We also introduce One-Vote Veto (OVV) self-training, a semi-supervised learning strategy that is designed specifically for MTSNs. By taking both self-predictions and contrastive predictions of the unlabeled training data into account, OVV self-training provides additional pseudo labels for fine-tuning a pre-trained MTSN. Using a large (imbalanced) dataset with 66,715 fundus photographs acquired over 15 years, extensive experimental results demonstrate the effectiveness of low-shot learning with MTSN and semi-supervised learning with OVV self-training. Three additional, smaller clinical datasets of fundus images acquired under different conditions (cameras, instruments, locations, populations) are used to demonstrate the generalizability of the proposed methods.

arxiv情報

著者 Rui Fan,Christopher Bowd,Nicole Brye,Mark Christopher,Robert N. Weinreb,David Kriegman,Linda M. Zangwill
発行日 2023-08-21 15:23:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク