Open-Ended Medical Visual Question Answering Through Prefix Tuning of Language Models

要約

医療用視覚的質問応答 (VQA) は、より迅速かつ正確な診断と治療の決定につながるため、重要な課題です。
ほとんどの既存の方法は、マルチクラスの分類問題としてアプローチし、結果を事前定義された精選された回答のクローズド セットに制限します。
私たちはオープンエンドの VQA に焦点を当てており、言語モデルの最近の進歩に動機づけられて、それを生成的なタスクと見なしています。
事前にトレーニングされた言語モデルを活用して、小規模でドメイン固有の医療データセットに特に適した新しい方法を紹介します。
医用画像を言語モデルに適切に伝達するために、抽出された視覚的特徴を一連の学習可能なトークンにマッピングするネットワークを開発します。
次に、質問とともに、これらの学習可能なトークンが言語モデルを直接促します。
リソース効率とデータ効率の高い微調整を可能にする、言語モデルの最近のパラメーター効率の良い微調整戦略を探ります。
主要な医療 VQA ベンチマーク、すなわち Slake、OVQA、PathVQA でアプローチを評価します。
結果は、私たちのアプローチがさまざまなトレーニング設定で既存の方法よりも優れていると同時に、計算​​効率が高いことを示しています。

要約(オリジナル)

Medical Visual Question Answering (VQA) is an important challenge, as it would lead to faster and more accurate diagnoses and treatment decisions. Most existing methods approach it as a multi-class classification problem, which restricts the outcome to a predefined closed-set of curated answers. We focus on open-ended VQA and motivated by the recent advances in language models consider it as a generative task. Leveraging pre-trained language models, we introduce a novel method particularly suited for small, domain-specific, medical datasets. To properly communicate the medical images to the language model, we develop a network that maps the extracted visual features to a set of learnable tokens. Then, alongside the question, these learnable tokens directly prompt the language model. We explore recent parameter-efficient fine-tuning strategies for language models, which allow for resource- and data-efficient fine-tuning. We evaluate our approach on the prime medical VQA benchmarks, namely, Slake, OVQA and PathVQA. The results demonstrate that our approach outperforms existing methods across various training settings while also being computationally efficient.

arxiv情報

著者 Tom van Sonsbeek,Mohammad Mahdi Derakhshani,Ivona Najdenkoska,Cees G. M. Snoek,Marcel Worring
発行日 2023-03-10 15:17:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.CV パーマリンク