要約
自己教師あり学習 (SSL) は、手動によるアノテーションの必要性を減らし、医療画像分析タスクで深層学習モデルにアクセスできるようにするのに役立つ可能性があります。
自己教師ありモデルは、ラベルなしデータから学習した表現を活用することで、微調整をほとんどまたはまったく必要としないタスクで良好にパフォーマンスを発揮します。
しかし、複雑な解剖学的構造と多様な臨床状態を特徴とする胸部 X 線写真のような医療画像の場合、より広範なコンテキスト情報を維持しながら、きめの細かい詳細をエンコードできる表現学習技術の必要性が生じます。
これに関連して、胸部 X 線画像から埋め込みの形で豊富な表現をキャプチャするアプローチである MLVICX (胸部 X 線自己教師あり表現学習のためのマルチレベル分散共分散探索) を紹介します。
私たちのアプローチの中心となるのは、冗長性を効果的に削減しながら、モデルが診断上意味のあるパターンを検出できるようにする、新しいマルチレベル分散および共分散探索戦略です。
MLVICX は、学習された埋め込みの分散と共分散を強化することで、グローバルとローカルの両方のコンテキストの詳細を適応させることで、重要な医学的洞察の保持を促進します。
私たちは、包括的な実験を通じて自己教師付き胸部 X 線表現学習を進める際の MLVICX のパフォーマンスを実証します。
さまざまな下流タスクにわたって観察されたパフォーマンスの向上は、高精度の医療診断と包括的な画像解析のための胸部 X 線包埋の有用性を高める上で、提案されたアプローチの重要性を強調しています。
関連するために、NIH-胸部 X 線データセットを使用しましたが、下流のタスクでは、NIH-胸部 X 線、Vinbig-CXR、RSNA 肺炎、および SIIM-ACR 気胸データセットを利用しました。
全体として、さまざまなダウンストリーム タスクにおいて、SOTA SSL アプローチと比較して 3% 以上のパフォーマンス向上が観察されています。
要約(オリジナル)
Self-supervised learning (SSL) is potentially useful in reducing the need for manual annotation and making deep learning models accessible for medical image analysis tasks. By leveraging the representations learned from unlabeled data, self-supervised models perform well on tasks that require little to no fine-tuning. However, for medical images, like chest X-rays, which are characterized by complex anatomical structures and diverse clinical conditions, there arises a need for representation learning techniques that can encode fine-grained details while preserving the broader contextual information. In this context, we introduce MLVICX (Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning), an approach to capture rich representations in the form of embeddings from chest X-ray images. Central to our approach is a novel multi-level variance and covariance exploration strategy that empowers the model to detect diagnostically meaningful patterns while reducing redundancy effectively. By enhancing the variance and covariance of the learned embeddings, MLVICX promotes the retention of critical medical insights by adapting both global and local contextual details. We demonstrate the performance of MLVICX in advancing self-supervised chest X-ray representation learning through comprehensive experiments. The performance enhancements we observe across various downstream tasks highlight the significance of the proposed approach in enhancing the utility of chest X-ray embeddings for precision medical diagnosis and comprehensive image analysis. For pertaining, we used the NIH-Chest X-ray dataset, while for downstream tasks, we utilized NIH-Chest X-ray, Vinbig-CXR, RSNA pneumonia, and SIIM-ACR Pneumothorax datasets. Overall, we observe more than 3% performance gains over SOTA SSL approaches in various downstream tasks.
arxiv情報
著者 | Azad Singh,Vandan Gorade,Deepak Mishra |
発行日 | 2024-03-18 06:19:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google