Magnification Invariant Medical Image Analysis: A Comparison of Convolutional Networks, Vision Transformers, and Token Mixers

要約

畳み込みニューラル ネットワーク (CNN) は医用画像解析で広く使用されていますが、テスト画像の倍率がトレーニング画像と異なるとパフォーマンスが低下します。
CNN が倍率スケール全体で一般化できないため、外部データセットで最適なパフォーマンスが得られない可能性があります。
この研究の目的は、トレーニングおよびテスト段階でさまざまな倍率スケールを使用して乳癌組織病理学的画像を分析する際の、さまざまな深層学習アーキテクチャの堅牢性を評価することです。
ここでは、CNN ベースの ResNet と MobileNet、自己注意ベースの Vision Transformers と Swin Transformers、および FNet、ConvMixer、MLP-Mixer、WaveMix などのトークン混合モデルなど、複数のディープ ラーニング アーキテクチャのパフォーマンスを調べて比較します。
.
実験は、さまざまな倍率レベルで乳癌組織病理学的画像を含む BreakHis データセットを使用して行われます。
WaveMix のパフォーマンスは、トレーニング データとテスト データの倍率に対して不変であり、安定した優れた分類精度を提供できることを示します。
これらの評価は、倍率スケールの変更を確実に処理できるディープ ラーニング アーキテクチャを特定する上で重要であり、解剖学的構造全体のスケール変更が推論結果を妨げないようにします。

要約(オリジナル)

Convolution Neural Networks (CNNs) are widely used in medical image analysis, but their performance degrade when the magnification of testing images differ from the training images. The inability of CNNs to generalize across magnification scales can result in sub-optimal performance on external datasets. This study aims to evaluate the robustness of various deep learning architectures in the analysis of breast cancer histopathological images with varying magnification scales at training and testing stages. Here we explore and compare the performance of multiple deep learning architectures, including CNN-based ResNet and MobileNet, self-attention-based Vision Transformers and Swin Transformers, and token-mixing models, such as FNet, ConvMixer, MLP-Mixer, and WaveMix. The experiments are conducted using the BreakHis dataset, which contains breast cancer histopathological images at varying magnification levels. We show that performance of WaveMix is invariant to the magnification of training and testing data and can provide stable and good classification accuracy. These evaluations are critical in identifying deep learning architectures that can robustly handle changes in magnification scale, ensuring that scale changes across anatomical structures do not disturb the inference results.

arxiv情報

著者 Pranav Jeevan,Nikhil Cherian Kurian,Amit Sethi
発行日 2023-02-22 16:44:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV, I.2.1 パーマリンク