要約
この研究では、乳がんの早期かつ正確な検出のための組織病理学的画像を分類する際の深い学習モデルの有効性を評価します。
ResNet-50、Densenet-121、ResNext-50、Vision Transfransformer(VIT)、GoogleNet(Inception V3)、EfficientNet、MobileNet、およびSqeezenetを含む8つの高度なモデルを、277,524画像パッチのデータセットを使用して比較しました。
視覚変圧器(VIT)モデルは、その注意ベースのメカニズムを備えた、94%の最高の検証精度を達成し、従来のCNNを上回りました。
この研究は、臨床環境での乳がん診断の精度と効率を高めるための高度な機械学習方法の可能性を示しています。
要約(オリジナル)
This study evaluates the effectiveness of deep learning models in classifying histopathological images for early and accurate detection of breast cancer. Eight advanced models, including ResNet-50, DenseNet-121, ResNeXt-50, Vision Transformer (ViT), GoogLeNet (Inception v3), EfficientNet, MobileNet, and SqueezeNet, were compared using a dataset of 277,524 image patches. The Vision Transformer (ViT) model, with its attention-based mechanisms, achieved the highest validation accuracy of 94%, outperforming conventional CNNs. The study demonstrates the potential of advanced machine learning methods to enhance precision and efficiency in breast cancer diagnosis in clinical settings.
arxiv情報
著者 | Sania Eskandari,Ali Eslamian,Nusrat Munia,Amjad Alqarni,Qiang Cheng |
発行日 | 2025-05-08 13:34:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google