Breast Cancer Classification in Deep Ultraviolet Fluorescence Images Using a Patch-Level Vision Transformer Framework

要約

乳房を消費する手術(BCS)は、健康な組織保存を最大化しながら、悪性病変を完全に除去することを目指しています。
術中のマージン評価は、徹底的な癌切除と組織保存のバランスをとるために不可欠です。
深い紫外線蛍光スキャン顕微鏡(DUV-FSM)により、切除された組織の表面画像全体(WSI)の迅速な獲得が可能になり、悪性組織と正常組織のコントラストが提供されます。
しかし、DUV WSISによる乳がん分類は、高解像度と複雑な組織病理学的特徴によって挑戦されています。
この研究では、パッチレベルのビジョントランス(VIT)モデルを使用して、ローカルおよびグローバルな機能をキャプチャして、DUV WSI分類フレームワークを紹介します。
Grad-CAM ++顕著な重み付けは、関連する空間領域を強調し、結果の解釈可能性を高め、良性および悪性組織分類の診断精度を向上させます。
包括的な5倍の交差検証は、提案されたアプローチが従来の深い学習方法を大幅に上回ることを示しており、98.33%の分類精度を達成しています。

要約(オリジナル)

Breast-conserving surgery (BCS) aims to completely remove malignant lesions while maximizing healthy tissue preservation. Intraoperative margin assessment is essential to achieve a balance between thorough cancer resection and tissue conservation. A deep ultraviolet fluorescence scanning microscope (DUV-FSM) enables rapid acquisition of whole surface images (WSIs) for excised tissue, providing contrast between malignant and normal tissues. However, breast cancer classification with DUV WSIs is challenged by high resolutions and complex histopathological features. This study introduces a DUV WSI classification framework using a patch-level vision transformer (ViT) model, capturing local and global features. Grad-CAM++ saliency weighting highlights relevant spatial regions, enhances result interpretability, and improves diagnostic accuracy for benign and malignant tissue classification. A comprehensive 5-fold cross-validation demonstrates the proposed approach significantly outperforms conventional deep learning methods, achieving a classification accuracy of 98.33%.

arxiv情報

著者 Pouya Afshin,David Helminiak,Tongtong Lu,Tina Yen,Julie M. Jorns,Mollie Patton,Bing Yu,Dong Hye Ye
発行日 2025-05-12 15:22:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク