CheXRelNet: An Anatomy-Aware Model for Tracking Longitudinal Relationships between Chest X-Rays

要約

深層学習を利用して胸部 X 線写真の解釈と疾患の診断タスクを自動化することは進歩していますが、連続胸部 X 線 (CXR) 間の変更はあまり注目されていません。
胸部イメージングによって視覚化された病状の進行を監視することは、解剖学的な動きの推定と画像の登録にいくつかの課題をもたらします。つまり、2 つの画像を空間的に位置合わせし、変化検出における時間的ダイナミクスをモデル化します。
この作業では、2 つの CXR 間の縦断的な病理変化の関係を追跡できるニューラル モデルである CheXRelNet を提案します。
CheXRelNet は、ローカルおよびグローバルの視覚的特徴を組み込み、画像間および画像内の解剖学的情報を利用し、解剖学的領域属性間の依存関係を学習して、CXR のペアの疾患変化を正確に予測します。
胸部 ImaGenome データセットの実験結果は、ベースラインと比較してダウンストリーム パフォーマンスの向上を示しています。
コードは https://github.com/PLAN-Lab/ChexRelNet で入手できます

要約(オリジナル)

Despite the progress in utilizing deep learning to automate chest radiograph interpretation and disease diagnosis tasks, change between sequential Chest X-rays (CXRs) has received limited attention. Monitoring the progression of pathologies that are visualized through chest imaging poses several challenges in anatomical motion estimation and image registration, i.e., spatially aligning the two images and modeling temporal dynamics in change detection. In this work, we propose CheXRelNet, a neural model that can track longitudinal pathology change relations between two CXRs. CheXRelNet incorporates local and global visual features, utilizes inter-image and intra-image anatomical information, and learns dependencies between anatomical region attributes, to accurately predict disease change for a pair of CXRs. Experimental results on the Chest ImaGenome dataset show increased downstream performance compared to baselines. Code is available at https://github.com/PLAN-Lab/ChexRelNet

arxiv情報

著者 Gaurang Karwande,Amarachi Mbakawe,Joy T. Wu,Leo A. Celi,Mehdi Moradi,Ismini Lourentzou
発行日 2022-09-15 17:25:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク