Vision Transformer for Classification of Breast Ultrasound Images

要約

医療超音波(米国)イメージングは​​、使いやすさ、低コスト、安​​全性により、乳がんイメージングの顕著なモダリティになりました。
過去10年間で、畳み込みアプリケーションの選択方法として畳み込みニューラルネットワーク(CNNS)が登場し、US画像の自動分類において優れた可能性を示してきました。
彼らの成功にもかかわらず、彼らの制限されたローカル受容フィールドは、グローバルなコンテキスト情報を学習する能力を制限します。
最近、画像パッチ間の自己関節に基づいたVision Transformer(VIT)設計は、CNNSの代替品である可能性があることを示しています。
この研究では、初めて、VITを利用して、さまざまな増強戦略を使用して乳房米国の画像を分類します。
結果は、分類精度と曲線下面積(AUC)メトリックとして提供され、パフォーマンスは最先端のCNNと比較されます。
結果は、VITモデルが米国の乳房画像の分類においてCNNと同等の効率性またはさらに優れていることを示しています。

要約(オリジナル)

Medical ultrasound (US) imaging has become a prominent modality for breast cancer imaging due to its ease-of-use, low-cost and safety. In the past decade, convolutional neural networks (CNNs) have emerged as the method of choice in vision applications and have shown excellent potential in automatic classification of US images. Despite their success, their restricted local receptive field limits their ability to learn global context information. Recently, Vision Transformer (ViT) designs that are based on self-attention between image patches have shown great potential to be an alternative to CNNs. In this study, for the first time, we utilize ViT to classify breast US images using different augmentation strategies. The results are provided as classification accuracy and Area Under the Curve (AUC) metrics, and the performance is compared with the state-of-the-art CNNs. The results indicate that the ViT models have comparable efficiency with or even better than the CNNs in classification of US breast images.

arxiv情報

著者 Behnaz Gheflati,Hassan Rivaz
発行日 2025-02-12 14:06:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク