要約
タイトル:MedMNIST分類デカスロンのための複合ミキサー
要約:
– 医療画像分野の発展に伴い、全く医学的知識を必要としないデータセットの開発が必要とされている。
– そのようなデータセットの1つであるMedMNIST (v2) には、大量の小型サンプルデータが含まれており、それらに対する専門家のアノテーション(クラスラベル)も存在する。
– 既存ベースラインモデルは、Google AutoML Vision、ResNet-50+3Dを用いて、MedMNIST (v2) データセットにおいて70%以上の平均精度を達成している。
– しかし、MedMNIST (v2) におけるモデリングには以下の2つの問題がある。
– クラスラベルの不確実性が多く、
– 低いスケールで切り取られた画像が認識情報を落とし、分類器が正確な決定境界を決定するのに困難を招く。
– 上記問題を解決するために、複合ミキサー(C-Mixer)と事前トレーニングのフレームワークを開発し、想像上の行列とランダムマスキングを使用した自己監視スキームを導入し、情報の不足とクラスラベルの不確実性を軽減する。
– この研究の手法(インセンティブ学習、マスキングを使用した自己監視学習)は、標準的なMedMNIST(v2)データセットだけでなく、カスタマイズされた弱監視データセットや他の画像強化タスクでも驚くほどの潜在的な可能性を示す。
要約(オリジナル)
With the development of the medical image field, researchers seek to develop a class of datasets to block the need for medical knowledge, such as \text{MedMNIST} (v2). MedMNIST (v2) includes a large number of small-sized (28 $\times$ 28 or 28 $\times$ 28 $\times$ 28) medical samples and the corresponding expert annotations (class label). The existing baseline model (Google AutoML Vision, ResNet-50+3D) can reach an average accuracy of over 70\% on MedMNIST (v2) datasets, which is comparable to the performance of expert decision-making. Nevertheless, we note that there are two insurmountable obstacles to modeling on MedMNIST (v2): 1) the raw images are cropped to low scales may cause effective recognition information to be dropped and the classifier to have difficulty in tracing accurate decision boundaries; 2) the labelers’ subjective insight may cause many uncertainties in the label space. To address these issues, we develop a Complex Mixer (C-Mixer) with a pre-training framework to alleviate the problem of insufficient information and uncertainty in the label space by introducing an incentive imaginary matrix and a self-supervised scheme with random masking. Our method (incentive learning and self-supervised learning with masking) shows surprising potential on both the standard MedMNIST (v2) dataset, the customized weakly supervised datasets, and other image enhancement tasks.
arxiv情報
著者 | Zhuoran Zheng,Xiuyi Jia |
発行日 | 2023-04-20 02:34:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI