Barttender: An approachable & interpretable way to compare medical imaging and non-imaging data

要約

画像ベースの深層学習は医療研究に変革をもたらしましたが、画像モデルと従来の非画像データや表形式のデータを比較する際の課題のため、臨床での採用は依然として限られています。
このギャップを埋めるために、疾患予測などのタスクにおける画像化表データと非画像化表形式データの有用性を直接比較するために深層学習を使用する解釈可能なフレームワークである Barttender を紹介します。
Barttender は、電子医療記録からのスカラー データなどの非画像化表形式の特徴をグレースケール バーに変換し、両方のデータ モダリティの解釈可能でスケーラブルな深層学習ベースのモデリングを容易にします。
私たちのフレームワークを使用すると、研究者は、ローカル(サンプルレベル)およびグローバル(集団レベル)の説明だけでなく、パフォーマンス測定を通じて有用性の違いを評価することができます。
画像ベースの深層学習モデルのグローバルな特徴の重要性を定義するための新しい尺度を導入します。これを gIoU と呼びます。
胸部 X 線写真と電子医療記録からのスカラー データを使用した CheXpert および MIMIC データセットの実験では、Bartender が従来の方法と同等に機能し、深層学習モデルを使用して説明可能性が向上していることが示されています。

要約(オリジナル)

Imaging-based deep learning has transformed healthcare research, yet its clinical adoption remains limited due to challenges in comparing imaging models with traditional non-imaging and tabular data. To bridge this gap, we introduce Barttender, an interpretable framework that uses deep learning for the direct comparison of the utility of imaging versus non-imaging tabular data for tasks like disease prediction. Barttender converts non-imaging tabular features, such as scalar data from electronic health records, into grayscale bars, facilitating an interpretable and scalable deep learning based modeling of both data modalities. Our framework allows researchers to evaluate differences in utility through performance measures, as well as local (sample-level) and global (population-level) explanations. We introduce a novel measure to define global feature importances for image-based deep learning models, which we call gIoU. Experiments on the CheXpert and MIMIC datasets with chest X-rays and scalar data from electronic health records show that Barttender performs comparably to traditional methods and offers enhanced explainability using deep learning models.

arxiv情報

著者 Ayush Singla,Shakson Isaac,Chirag J. Patel
発行日 2024-11-19 18:22:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, q-bio.QM パーマリンク