Weakly-Supervised Multimodal Learning on MIMIC-CXR

要約

マルチモーダルなデータ統合とラベル不足は、医療現場における機械学習にとって大きな課題となっています。
これらの問題に対処するために、我々は、挑戦的な MIMIC-CXR データセットに対して新しく提案されたマルチモーダル変分専門家混合 (MMVM) VAE の詳細な評価を実施します。
私たちの分析では、MMVM VAE が他のマルチモーダル VAE や完全監視型アプローチよりも常に優れたパフォーマンスを示し、現実世界の医療アプリケーションに対するその強力な可能性を強調しています。

要約(オリジナル)

Multimodal data integration and label scarcity pose significant challenges for machine learning in medical settings. To address these issues, we conduct an in-depth evaluation of the newly proposed Multimodal Variational Mixture-of-Experts (MMVM) VAE on the challenging MIMIC-CXR dataset. Our analysis demonstrates that the MMVM VAE consistently outperforms other multimodal VAEs and fully supervised approaches, highlighting its strong potential for real-world medical applications.

arxiv情報

著者 Andrea Agostini,Daphné Chopard,Yang Meng,Norbert Fortin,Babak Shahbaba,Stephan Mandt,Thomas M. Sutter,Julia E. Vogt
発行日 2024-11-15 17:05:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク