Classification of Gleason Grading in Prostate Cancer Histopathology Images Using Deep Learning Techniques: YOLO, Vision Transformers, and Vision Mamba

要約

前立腺がんは男性に影響を与える主要な健康問題の一つにランクされており、グリーソンスコアリングシステムは診断と予後の主要な方法として機能します。
このシステムは、専門の病理学者に依存して前立腺組織のサンプルを評価し、グリーソングレードを割り当てますが、この作業には多大な時間と手作業が必要です。
この課題に対処するために、採点プロセスを自動化する人工知能 (AI) ソリューションが検討されてきました。
これらの課題を踏まえ、この研究では、病理組織画像からグリーソングレードを正確に分類する際の、YOLO、Vision Transformers、Vision Mamba という 3 つのディープラーニング手法の有効性を評価および比較します。
目標は、前立腺がん管理における診断の精度と効率を高めることです。
この研究では、2 つの公的に利用可能なデータセット、Gleason2019 と SICAPv2 を利用して、YOLO、Vision Transformers、および Vision Mamba モデルのパフォーマンスをトレーニングおよびテストしました。
各モデルは、偽陽性率、偽陰性率、精度、再現率などの指標を考慮して、グリーソングレードを正確に分類する能力に基づいて評価されました。
この研究では、臨床現場での各手法の計算効率と適用性も調査されました。
Vision Mamba は、すべての指標にわたって優れたパフォーマンスを示し、誤検知と誤検知を最小限に抑えながら高い精度と再現率を達成しました。
YOLO は、速度と効率の点で有望であることを示し、特にリアルタイム分析に有益でした。
Vision Transformers は、他のモデルと比較して計算の複雑さは高くなりますが、画像内の長距離の依存関係を捉えることに優れています。
Vision Mamba は、精度と計算効率のバランスを提供する、病理組織画像におけるグリーソングレード分類の最も効果的なモデルとして浮上しています。

要約(オリジナル)

Prostate cancer ranks among the leading health issues impacting men, with the Gleason scoring system serving as the primary method for diagnosis and prognosis. This system relies on expert pathologists to evaluate samples of prostate tissue and assign a Gleason grade, a task that requires significant time and manual effort. To address this challenge, artificial intelligence (AI) solutions have been explored to automate the grading process. In light of these challenges, this study evaluates and compares the effectiveness of three deep learning methodologies, YOLO, Vision Transformers, and Vision Mamba, in accurately classifying Gleason grades from histopathology images. The goal is to enhance diagnostic precision and efficiency in prostate cancer management. This study utilized two publicly available datasets, Gleason2019 and SICAPv2, to train and test the performance of YOLO, Vision Transformers, and Vision Mamba models. Each model was assessed based on its ability to classify Gleason grades accurately, considering metrics such as false positive rate, false negative rate, precision, and recall. The study also examined the computational efficiency and applicability of each method in a clinical setting. Vision Mamba demonstrated superior performance across all metrics, achieving high precision and recall rates while minimizing false positives and negatives. YOLO showed promise in terms of speed and efficiency, particularly beneficial for real-time analysis. Vision Transformers excelled in capturing long-range dependencies within images, although they presented higher computational complexity compared to the other models. Vision Mamba emerges as the most effective model for Gleason grade classification in histopathology images, offering a balance between accuracy and computational efficiency.

arxiv情報

著者 Amin Malekmohammadi,Ali Badiezadeh,Seyed Mostafa Mirhassani,Parisa Gifani,Majid Vafaeezadeh
発行日 2024-09-25 17:36:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク