Semi-Supervised Semantic Segmentation using Redesigned Self-Training for White Blood Cells

要約

ヘルスケア、特に白血球がん診断における人工知能 (AI) は、白血球 (WBC) セグメンテーション用の大規模なラベル付きデータセットの欠如と時代遅れのセグメンテーション手法という 2 つの主要な課題によって妨げられています。
これらの課題により、白血球に関連するがんを診断するためのより正確で最新の技術の開発が妨げられています。
最初の課題に対処するには、利用可能なデータセットの希少性を効率的に活用する半教師あり学習フレームワークを考案する必要があります。
この研究では、FixMatch を組み込んだ新しい自己トレーニング パイプラインを提案することで、この問題に対処します。
自己トレーニングは、ラベル付きデータでトレーニングされたモデルを利用して、ラベルなしデータの疑似ラベルを生成し、両方のデータで再トレーニングする手法です。
FixMatch は、入力画像の変動に対するモデルの堅牢性を強化する一貫性正則化アルゴリズムです。
FixMatch を自己トレーニング パイプラインに組み込むと、ほとんどの場合でパフォーマンスが向上することがわかりました。
私たちのパフォーマンスは、DeepLab-V3 アーキテクチャと ResNet-50 で一貫性のある自己トレーニング スキームで最高のパフォーマンスを達成し、Zheng 1、Zheng 2、LISC データセットでそれぞれ 90.69%、87.37%、76.49% に達しました。

要約(オリジナル)

Artificial Intelligence (AI) in healthcare, especially in white blood cell cancer diagnosis, is hindered by two primary challenges: the lack of large-scale labeled datasets for white blood cell (WBC) segmentation and outdated segmentation methods. These challenges inhibit the development of more accurate and modern techniques to diagnose cancer relating to white blood cells. To address the first challenge, a semi-supervised learning framework should be devised to efficiently capitalize on the scarcity of the dataset available. In this work, we address this issue by proposing a novel self-training pipeline with the incorporation of FixMatch. Self-training is a technique that utilizes the model trained on labeled data to generate pseudo-labels for the unlabeled data and then re-train on both of them. FixMatch is a consistency-regularization algorithm to enforce the model’s robustness against variations in the input image. We discover that by incorporating FixMatch in the self-training pipeline, the performance improves in the majority of cases. Our performance achieved the best performance with the self-training scheme with consistency on DeepLab-V3 architecture and ResNet-50, reaching 90.69%, 87.37%, and 76.49% on Zheng 1, Zheng 2, and LISC datasets, respectively.

arxiv情報

著者 Vinh Quoc Luu,Duy Khanh Le,Huy Thanh Nguyen,Minh Thanh Nguyen,Thinh Tien Nguyen,Vinh Quang Dinh
発行日 2024-02-23 10:09:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク