HierAttn: Effectively Learn Representations from Stage Attention and Branch Attention for Skin Lesions Diagnosis

要約

皮膚病変の正確で偏りのない検査は、皮膚の状態や障害の早期診断と治療に不可欠です。
異なる画像装置を使用して病変の色や形態が異なる患者から画像を収集するため、皮膚病変の視覚的特徴は大きく異なります。
最近の研究では、皮膚疾患の早期診断のために画像を分類するために、アンサンブル畳み込みニューラルネットワーク(CNN)が報告されています。
ただし、これらのアンサンブルされたCNNの実際の使用は、重量があり、コンテキスト情報を使用するには不十分であるため、制限されています。
軽量ネットワーク(MobileNetV3やEfficientNetなど)は、モバイルデバイスにディープニューラルネットワークを実装するためのパラメーター削減を実現するために開発されましたが、機能表現の深さが不十分なため、パフォーマンスが制限されます。
既存の制限に対処するために、新しいライトで効果的なニューラルネットワーク、つまりHierAttnを導入します。
HierAttnは、多段階および多分岐の注意メカニズムを使用して、ローカルおよびグローバル機能を学習するための新しい戦略を適用します。
HierAttnの有効性は、ダーモスコピー画像データセットISIC2019とスマートフォン写真データセットPAD-UFES-20(PAD20)を使用して評価されました。
実験結果は、HierAttnが最先端の軽量ネットワークの中で最高の精度とAUCを達成することを示しています。
コードはhttps://github.com/anthonyweidai/HierAttnで入手できます。

要約(オリジナル)

Accurate and unbiased examinations of skin lesions are critical for the early diagnosis and treatment of skin conditions and disorders. Visual features of skin lesions vary significantly because the images are collected from patients with different lesion colours and morphologies by using dissimilar imaging equipment. Recent studies have reported ensembled convolutional neural networks (CNNs) to classify the images for early diagnosis of skin disorders. However, the practical use of these ensembled CNNs is limited because they are heavyweight and inadequate for using contextual information. Although lightweight networks (e.g., MobileNetV3 and EfficientNet) were developed to achieve parameters reduction for implementing deep neural networks on mobile devices, insufficient depth of feature representation restricts the performance. To address the existing limitations, we introduce a new lite and effective neural network, namely HierAttn. The HierAttn applies a novel strategy to learn the local and global features by using multi-stage and multi-branch attention mechanisms. The efficacy of HierAttn was evaluated by using the dermoscopy images dataset ISIC2019 and smartphone photos dataset PAD-UFES-20 (PAD20). The experimental results show that HierAttn achieves the best accuracy and AUC among the state-of-the-art lightweight networks. The code is available at https://github.com/anthonyweidai/HierAttn.

arxiv情報

著者 Wei Dai,Rui Liu,Tianyi Wu,Min Wang,Jianqin Yin,Jun Liu
発行日 2022-06-03 02:24:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク