要約
乳がんは、世界中の女性に最も多いがんの種類です。
早期発見と適切な治療により、その影響を大幅に軽減できます。
病理組織検査は迅速かつ正確な診断に重要な役割を果たしますが、多くの場合、適切な認識と癌の等級付けには経験豊富な医療専門家が必要です。
自動画像検索システムは、病理学者が癌組織を特定するのを支援し、それによって診断プロセスを加速する可能性があります。
それにもかかわらず、組織学的画像における組織および細胞のパターンにはかなりのばらつきがあるため、正確な画像検索モデルを提案することは困難です。
この研究では、乳房の組織学的画像検索のための新しい注意ベースの敵対的に正則化された変分グラフ オートエンコーダ モデルの基礎モデルの機能を活用します。
私たちの結果は、事前トレーニングされた畳み込みニューラル ネットワークを使用したモデルと比較して、基礎モデルの特徴でトレーニングされたモデルの優れたパフォーマンス (mAP と mMV でそれぞれ最大 7.7% と 15.5%) を裏付けています。
最高の全体的なパフォーマンスを提供する計算病理学 (UNI) 用のモデル。
公的に利用可能な 2 つの乳がんの組織学画像データセットを評価することにより、UNI 特徴でトレーニングされた当社の最高性能モデルは、BreakHis および BACH データセットでそれぞれ 96.7%/91.5% および 97.6%/94.2% の平均 mAP/mMV スコアを達成しました。
私たちが提案する検索モデルは、臨床現場で使用して診断性能を向上させ、最終的には患者に利益をもたらす可能性を秘めています。
要約(オリジナル)
Breast cancer is the most common cancer type in women worldwide. Early detection and appropriate treatment can significantly reduce its impact. While histopathology examinations play a vital role in rapid and accurate diagnosis, they often require experienced medical experts for proper recognition and cancer grading. Automated image retrieval systems have the potential to assist pathologists in identifying cancerous tissues, thereby accelerating the diagnostic process. Nevertheless, proposing an accurate image retrieval model is challenging due to considerable variability among the tissue and cell patterns in histological images. In this work, we leverage the features from foundation models in a novel attention-based adversarially regularized variational graph autoencoder model for breast histological image retrieval. Our results confirm the superior performance of models trained with foundation model features compared to those using pre-trained convolutional neural networks (up to 7.7% and 15.5% for mAP and mMV, respectively), with the pre-trained general-purpose self-supervised model for computational pathology (UNI) delivering the best overall performance. By evaluating two publicly available histology image datasets of breast cancer, our top-performing model, trained with UNI features, achieved average mAP/mMV scores of 96.7%/91.5% and 97.6%/94.2% for the BreakHis and BACH datasets, respectively. Our proposed retrieval model has the potential to be used in clinical settings to enhance diagnostic performance and ultimately benefit patients.
arxiv情報
著者 | Nematollah Saeidi,Hossein Karshenas,Bijan Shoushtarian,Sepideh Hatamikia,Ramona Woitek,Amirreza Mahbod |
発行日 | 2024-12-12 18:42:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google