Meta-Transfer Derm-Diagnosis: Exploring Few-Shot Learning and Transfer Learning for Skin Disease Classification in Long-Tail Distribution

要約

希少疾患の課題に対処することは、特に参照画像の数が限られており、患者数が少ない場合には困難です。
これは、まれな皮膚疾患でより顕著であり、偏りのない広範囲に有効なモデルを開発することが困難なロングテールのデータ分布に遭遇します。
画像データセットが収集される多様な方法とその明確な目的も、これらの課題をさらに増大させます。
私たちの研究では、転移学習と並行して数ショット学習アプローチを採用し、エピソード的トレーニング方法論と従来のトレーニング方法論の長所と短所を詳細に調査しています。
ISIC2018、Derm7pt、SD-198 データセットを使用してモデルを評価しました。
最小限のラベル付きサンプルにより、私たちのモデルは、以前にトレーニングされたモデルと比較して、大幅な情報の獲得と優れ​​たパフォーマンスを示しました。
私たちの研究では、ImageNet で事前トレーニングされたモデルを使用してクラス内の類似性を高めることによって達成された、DenseNet121 モデルと MobileNetV2 モデルの特徴を表現する能力の向上が強調されています。
さらに、最大 10 例を使用した 2 方向分類から 5 方向分類までの実験では、例の数が増加するにつれて、従来の転移学習方法の成功率が上昇することが示されました。
データ拡張技術の追加により、転移学習ベースのモデルのパフォーマンスが大幅に向上し、特に SD​​-198 および ISIC2018 データセットにおいて、既存の手法よりも高いパフォーマンスが得られました。
この作品に関連するすべてのソース コードは、指定された URL で間もなく公開される予定です。

要約(オリジナル)

Addressing the challenges of rare diseases is difficult, especially with the limited number of reference images and a small patient population. This is more evident in rare skin diseases, where we encounter long-tailed data distributions that make it difficult to develop unbiased and broadly effective models. The diverse ways in which image datasets are gathered and their distinct purposes also add to these challenges. Our study conducts a detailed examination of the benefits and drawbacks of episodic and conventional training methodologies, adopting a few-shot learning approach alongside transfer learning. We evaluated our models using the ISIC2018, Derm7pt, and SD-198 datasets. With minimal labeled examples, our models showed substantial information gains and better performance compared to previously trained models. Our research emphasizes the improved ability to represent features in DenseNet121 and MobileNetV2 models, achieved by using pre-trained models on ImageNet to increase similarities within classes. Moreover, our experiments, ranging from 2-way to 5-way classifications with up to 10 examples, showed a growing success rate for traditional transfer learning methods as the number of examples increased. The addition of data augmentation techniques significantly improved our transfer learning based model performance, leading to higher performances than existing methods, especially in the SD-198 and ISIC2018 datasets. All source code related to this work will be made publicly available soon at the provided URL.

arxiv情報

著者 Zeynep Özdemir,Hacer Yalim Keles,Ömer Özgür Tanrıöver
発行日 2024-04-25 17:56:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク