要約
視覚言語処理における自己教師あり学習では、画像とテキスト モダリティの間のセマンティック アラインメントを利用します。
生物医学 VLP の以前の研究は、臨床ノートが一般的に以前の画像を参照しているにもかかわらず、単一の画像とレポートのペアの配置にほとんど依存していました。
これにより、モダリティ間の調整が不十分になるだけでなく、データ内の既存の一時的なコンテンツを通じて豊富な自己監視を活用する機会が失われます。
この作業では、トレーニングと微調整の両方で利用可能な場合、以前の画像とレポートを明示的に説明します。
BioViL-T と名付けられた私たちのアプローチは、テキスト モデルと共同でトレーニングされた CNN-Transformer ハイブリッド マルチイメージ エンコーダーを使用します。
ポーズのバリエーションや時間の経過に伴う入力画像の欠落など、発生する課題に多目的に対応できるように設計されています。
結果として得られるモデルは、単一画像セットアップと複数画像セットアップの両方でダウンストリーム タスクに優れており、一貫した改善を提供しながら、(I) 進行分類、(II) フレーズ グラウンディング、および (III) レポート生成で最先端のパフォーマンスを達成します。
疾患分類および文類似性タスクについて。
新しいマルチモーダル時間ベンチマーク データセット MS-CXR-T をリリースして、時間セマンティクスの観点から視覚言語表現の品質を定量化します。
私たちの実験結果は、データを最大限に活用するために以前の画像とレポートを組み込むことの利点を示しています。
要約(オリジナル)
Self-supervised learning in vision-language processing exploits semantic alignment between imaging and text modalities. Prior work in biomedical VLP has mostly relied on the alignment of single image and report pairs even though clinical notes commonly refer to prior images. This does not only introduce poor alignment between the modalities but also a missed opportunity to exploit rich self-supervision through existing temporal content in the data. In this work, we explicitly account for prior images and reports when available during both training and fine-tuning. Our approach, named BioViL-T, uses a CNN-Transformer hybrid multi-image encoder trained jointly with a text model. It is designed to be versatile to arising challenges such as pose variations and missing input images across time. The resulting model excels on downstream tasks both in single- and multi-image setups, achieving state-of-the-art performance on (I) progression classification, (II) phrase grounding, and (III) report generation, whilst offering consistent improvements on disease classification and sentence-similarity tasks. We release a novel multi-modal temporal benchmark dataset, MS-CXR-T, to quantify the quality of vision-language representations in terms of temporal semantics. Our experimental results show the advantages of incorporating prior images and reports to make most use of the data.
arxiv情報
著者 | Shruthi Bannur,Stephanie Hyland,Qianchu Liu,Fernando Perez-Garcia,Maximilian Ilse,Daniel C. Castro,Benedikt Boecking,Harshita Sharma,Kenza Bouzid,Anja Thieme,Anton Schwaighofer,Maria Wetscherek,Matthew P. Lungren,Aditya Nori,Javier Alvarez-Valle,Ozan Oktay |
発行日 | 2023-01-11 16:35:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google