要約
病理組織画像における乳がんの自動分類は、正確な診断と治療計画を立てるために非常に重要です。
最近では、ResNet アーキテクチャに基づく分類アプローチが人気を博しており、スキップ接続を使用して勾配消失問題を軽減し、低レベルと高レベルの特徴情報を統合することで精度を大幅に向上させています。
それにもかかわらず、従来の ResNet アーキテクチャはデータの不均衡や解釈可能性の制限などの課題に直面しており、クロスドメインの知識と医療専門家間の協力が必要です。
この研究では、乳がん分類のための新しい方法である Dual-Activated Lightweight Attend ResNet50 (DALAResNet50) モデルを導入することで、これらの課題に効果的に対処しています。
事前トレーニングされた ResNet50 モデルと軽量のアテンション メカニズムを統合し、ResNet50 の 4 番目の層にアテンション モジュールを埋め込み、LeakyReLU および ReLU アクティベーション関数を備えた 2 つの完全に接続された層を組み込んで、特徴学習機能を強化します。
DALAResNet50 メソッドは、BreakHis データベースの乳がんの組織病理画像に対して 40 倍、100 倍、200 倍、400 倍の倍率でテストされ、それぞれ 98.5%、98.7%、97.9%、94.3% の精度を達成しました。
また、SEResNet50、DenseNet121、VGG16、VGG16Inception、ViT、Swin-Transformer、Dinov2_Vitb14、ResNet50 などの確立された深層学習モデルとも比較されました。
DALAResNet50 の報告された結果は、精度、F1 スコア、IBA、GMean に関して比較したアプローチよりも優れていることが示されており、異なる倍率や不均衡な乳がんデータセットを扱う際の顕著な堅牢性と幅広い適用性を実証しています。
要約(オリジナル)
Automatic breast cancer classification in histopathology images is crucial for precise diagnosis and treatment planning. Recently, classification approaches based on the ResNet architecture have gained popularity for significantly improving accuracy by using skip connections to mitigate vanishing gradient problems, thereby integrating low-level and high-level feature information. Nevertheless, the conventional ResNet architecture faces challenges such as data imbalance and limited interpretability, necessitating cross-domain knowledge and collaboration among medical experts. This study effectively addresses these challenges by introducing a novel method for breast cancer classification, the Dual-Activated Lightweight Attention ResNet50 (DALAResNet50) model. It integrates a pre-trained ResNet50 model with a lightweight attention mechanism, embedding an attention module in the fourth layer of ResNet50 and incorporating two fully connected layers with LeakyReLU and ReLU activation functions to enhance feature learning capabilities. The DALAResNet50 method was tested on breast cancer histopathology images from the BreakHis Database across magnification factors of 40X, 100X, 200X, and 400X, achieving accuracies of 98.5%, 98.7%, 97.9%, and 94.3%, respectively. It was also compared with established deep learning models such as SEResNet50, DenseNet121, VGG16, VGG16Inception, ViT, Swin-Transformer, Dinov2_Vitb14, and ResNet50. The reported results of DALAResNet50 have been shown to outperform the compared approaches regarding accuracy, F1 score, IBA, and GMean, demonstrating significant robustness and broad applicability when dealing with different magnifications and imbalanced breast cancer datasets
arxiv情報
著者 | Suxing Liu |
発行日 | 2024-04-02 14:14:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google