要約
正確かつ堅牢な医用画像分類は、特に利用可能な注釈付きデータセットが小さく、ターゲット クラス間の不均衡が大きいアプリケーション ドメインでは困難なタスクです。
特に過小評価されたクラスでは、データ取得が常に実行可能であるとは限らないことを考慮して、私たちのアプローチでは、クラス固有の変分オートエンコーダー (VAE) と潜在空間補間を使用した新しい合成拡張戦略を導入して、識別能力を向上させます。
特徴空間のギャップを埋める現実的で多様な合成データを生成することで、データ不足とクラスの不均衡の問題に対処します。
この論文で紹介される方法は、各クラス内の潜在表現の内挿に依存しているため、トレーニング セットが強化され、モデルの一般化可能性と診断精度が向上します。
提案された戦略は、食道胃十二指腸鏡検査画像の清浄度の品質を評価するための自動方法をトレーニングおよび検証するために作成された 321 枚の画像の小さなデータセットでテストされました。
実際のデータと合成データを組み合わせることで、最も困難で過小評価されているクラスの精度が 18\% 以上増加することが観察されました。
提案された戦略は、過小評価されている層に利益をもたらしただけでなく、全体的な精度と精度の 6\% の向上など、他の指標の全体的な改善にもつながりました。
要約(オリジナル)
Accurate and robust medical image classification is a challenging task, especially in application domains where available annotated datasets are small and present high imbalance between target classes. Considering that data acquisition is not always feasible, especially for underrepresented classes, our approach introduces a novel synthetic augmentation strategy using class-specific Variational Autoencoders (VAEs) and latent space interpolation to improve discrimination capabilities. By generating realistic, varied synthetic data that fills feature space gaps, we address issues of data scarcity and class imbalance. The method presented in this paper relies on the interpolation of latent representations within each class, thus enriching the training set and improving the model’s generalizability and diagnostic accuracy. The proposed strategy was tested in a small dataset of 321 images created to train and validate an automatic method for assessing the quality of cleanliness of esophagogastroduodenoscopy images. By combining real and synthetic data, an increase of over 18\% in the accuracy of the most challenging underrepresented class was observed. The proposed strategy not only benefited the underrepresented class but also led to a general improvement in other metrics, including a 6\% increase in global accuracy and precision.
arxiv情報
著者 | Neil De La Fuente,Mireia Majó,Irina Luzko,Henry Córdova,Gloria Fernández-Esparrach,Jorge Bernal |
発行日 | 2024-09-16 13:47:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google