An analysis of data variation and bias in image-based dermatological datasets for machine learning classification

要約

AI アルゴリズムは、医療専門家を支援する上で貴重なものとなっています。
これらのモデルによって得られる信頼性の向上は、重要な意思決定の要求に役立ちます。
臨床皮膚学では、分類モデルは RGB 画像のみを入力として使用して患者の皮膚の悪性病変を検出できます。
ただし、学習ベースの手法のほとんどは、トレーニング時にダーモスコピー データセットから取得したデータを使用します。このデータは大規模であり、ゴールド スタンダードによって検証されています。
臨床モデルは、ダーモスコピーによって提供される対応する解像度が含まれていないユーザーのスマートフォン カメラでの分類に対処することを目的としています。
また、臨床応用には新たな課題も伴います。
これには、制御されていない環境からのキャプチャ、肌の色合いの変化、視点の変更、データとラベルのノイズ、および不均衡なクラスが含まれる可能性があります。
考えられる代替案は、転移学習を使用して臨床画像を処理することです。
ただし、サンプル数が少ないため、モデルのパフォーマンスが低下する可能性があります。
トレーニングで使用されるソース配布はテスト セットとは異なります。
この研究の目的は、ダーモスコピーサンプルと臨床サンプルの間のギャップを評価し、データセットのバリエーションがトレーニングにどのような影響を与えるかを理解することです。
モデルの予測を妨げる分布間の主な違いを評価します。
最後に、さまざまなアーキテクチャでの実験から、モデルの最終精度への影響を軽減するために、発散する分布からのデータを結合する方法を議論します。

要約(オリジナル)

AI algorithms have become valuable in aiding professionals in healthcare. The increasing confidence obtained by these models is helpful in critical decision demands. In clinical dermatology, classification models can detect malignant lesions on patients’ skin using only RGB images as input. However, most learning-based methods employ data acquired from dermoscopic datasets on training, which are large and validated by a gold standard. Clinical models aim to deal with classification on users’ smartphone cameras that do not contain the corresponding resolution provided by dermoscopy. Also, clinical applications bring new challenges. It can contain captures from uncontrolled environments, skin tone variations, viewpoint changes, noises in data and labels, and unbalanced classes. A possible alternative would be to use transfer learning to deal with the clinical images. However, as the number of samples is low, it can cause degradations on the model’s performance; the source distribution used in training differs from the test set. This work aims to evaluate the gap between dermoscopic and clinical samples and understand how the dataset variations impact training. It assesses the main differences between distributions that disturb the model’s prediction. Finally, from experiments on different architectures, we argue how to combine the data from divergent distributions, decreasing the impact on the model’s final accuracy.

arxiv情報

著者 Francisco Mauro,Emanoel Thyago,Othon Vinicius,Rodrigo Abreu,Kelvin Cunha,José Gabriel,Rafael Barros,Thales Bezerra,Manoel Henriques,Natalia Lopes,Érico Moutinho,Jéssica Guido,Tsang Ing Ren,Paulo Borba
発行日 2025-01-15 17:18:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, I.5.4 パーマリンク