要約
デジタル皮膚科における正確かつ公平な AI モデルに対する需要の高まりは、多様で高品質のラベル付きデータの不足という重大な課題に直面しています。
この研究では、この課題に対処する際の皮膚科学の領域固有の基礎モデルの可能性を調査します。
私たちは自己教師あり学習 (SSL) 技術を利用して、公的および民間のコレクションからの 240,000 枚を超える皮膚科学画像のデータセットでモデルを事前トレーニングします。
私たちの研究では、いくつかの SSL メソッドを検討し、結果として得られる基盤モデルを、ImageNet で事前トレーニングされたモデルなどのドメインに依存しないモデルや、12 の下流タスクにわたる MONET などの最先端のモデルと比較しています。
これまでの研究とは異なり、リソースが限られた臨床現場により適しており、幅広いユースケースへの適応を容易にする、より小規模なモデルの開発に重点を置いています。
結果は、この作業で事前トレーニングされたモデルが汎用モデルを上回るパフォーマンスを発揮するだけでなく、臨床関連の診断タスクにおいて 50 倍のモデルのパフォーマンスに近づくことを示しています。
この方向でのさらなる研究を促進するために、皮膚科応用において臨床医に有益となるトレーニング コードと基礎モデルの両方を公開します。
要約(オリジナル)
The growing demand for accurate and equitable AI models in digital dermatology faces a significant challenge: the lack of diverse, high-quality labeled data. In this work, we investigate the potential of domain-specific foundation models for dermatology in addressing this challenge. We utilize self-supervised learning (SSL) techniques to pre-train models on a dataset of over 240,000 dermatological images from public and private collections. Our study considers several SSL methods and compares the resulting foundation models against domain-agnostic models like those pre-trained on ImageNet and state-of-the-art models such as MONET across 12 downstream tasks. Unlike previous research, we emphasize the development of smaller models that are more suitable for resource-limited clinical settings, facilitating easier adaptation to a broad range of use cases. Results show that models pre-trained in this work not only outperform general-purpose models but also approach the performance of models 50 times larger on clinically relevant diagnostic tasks. To promote further research in this direction, we publicly release both the training code and the foundation models, which can benefit clinicians in dermatological applications.
arxiv情報
| 著者 | Fabian Gröger,Philippe Gottfrois,Ludovic Amruthalingam,Alvaro Gonzalez-Jimenez,Simone Lionetti,Luis R. Soenksen-Martinez,Alexander A. Navarini,Marc Pouly |
| 発行日 | 2024-11-08 12:19:20+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google