UnICLAM:Contrastive Representation Learning with Adversarial Masking for Unified and Interpretable Medical Vision Question Answering

要約

Medical Visual Question Answering (Medical-VQA) は、放射線画像に関する臨床上の質問に答えることを目的としており、医師の意思決定オプションを支援します。
それにもかかわらず、現在のMedical-VQAモデルは、間接的なセマンティックアラインメントにつながるビジョンとテクスチャエンコーダーを2つの別々のスペースに配置することで、クロスモーダル表現を学習します。
この論文では、敵対的マスキングを使用した対照的表現学習による、統合された解釈可能な医療-VQA モデルである UnICLAM を提案します。
具体的には、整列された画像とテキストの表現を学習するために、最初に、徐々にソフトなパラメーター共有戦略を使用して、統合されたデュアルストリーム事前トレーニング構造を確立します。
技術的には、提案された戦略は、ビジョン エンコーダーとテクスチャー エンコーダーが同じ空間に近くなるようにという制約を学習します。この制約は、レイヤーの数が増えるにつれて徐々に緩和されます。
さらに、統一された意味表現を把握するために、敵対的マスキングデータ拡張を視覚とテキストの対照表現学習に統一的に拡張します。
具体的には、エンコーダーのトレーニングが元のサンプルとマスキング サンプルの間の距離を最小化する一方で、敵対的マスキング モジュールは逆に距離を最大化するために敵対的学習を維持します。
さらに、統合された敵対的マスキング拡張モデルを直感的にさらに調査します。これにより、驚くべきパフォーマンスと効率で潜在的な事前解釈可能性が向上します。
VQA-RAD および SLAKE の公開ベンチマークに関する実験結果は、UniCLAM が既存の 11 の最先端の Medical-VQA モデルよりも優れていることを示しています。
さらに重要なことは、心不全の診断における UnICLAM の性能について追加の議論を行い、実際の疾患診断において UnICLAM が優れた少数ショット適応性能を示すことを検証することです。

要約(オリジナル)

Medical Visual Question Answering (Medical-VQA) aims to to answer clinical questions regarding radiology images, assisting doctors with decision-making options. Nevertheless, current Medical-VQA models learn cross-modal representations through residing vision and texture encoders in dual separate spaces, which lead to indirect semantic alignment. In this paper, we propose UnICLAM, a Unified and Interpretable Medical-VQA model through Contrastive Representation Learning with Adversarial Masking. Specifically, to learn an aligned image-text representation, we first establish a unified dual-stream pre-training structure with the gradually soft-parameter sharing strategy. Technically, the proposed strategy learns a constraint for the vision and texture encoders to be close in a same space, which is gradually loosened as the higher number of layers. Moreover, for grasping the unified semantic representation, we extend the adversarial masking data augmentation to the contrastive representation learning of vision and text in a unified manner. Concretely, while the encoder training minimizes the distance between original and masking samples, the adversarial masking module keeps adversarial learning to conversely maximize the distance. Furthermore, we also intuitively take a further exploration to the unified adversarial masking augmentation model, which improves the potential ante-hoc interpretability with remarkable performance and efficiency. Experimental results on VQA-RAD and SLAKE public benchmarks demonstrate that UnICLAM outperforms existing 11 state-of-the-art Medical-VQA models. More importantly, we make an additional discussion about the performance of UnICLAM in diagnosing heart failure, verifying that UnICLAM exhibits superior few-shot adaption performance in practical disease diagnosis.

arxiv情報

著者 Chenlu Zhan,Peng Peng,Hongsen Wang,Tao Chen,Hongwei Wang
発行日 2022-12-23 04:16:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク