Increasing Textual Context Size Boosts Medical Image-Text Matching

要約

この短いテクニカル レポートでは、医療画像とテキストのマッチング タスクで最先端の結果をもたらす簡単な手法を紹介します。
一般的な画像とテキストのマッチング モデルである OpenAI の CLIP の使用を分析し、CLIP の制限されたテキスト入力サイズが、より長いテキスト コンテキストのエンコードがしばしば必要とされる医療分野の下流のパフォーマンスに悪影響を及ぼすことを観察します。
したがって、テキスト キャプションをエンコードする単純なスライディング ウィンドウ技術でトレーニングされた ClipMD をトレーニングしてリリースします。
ClipMD は、2 つの医療画像テキスト データセットでテストされ、他の画像テキスト マッチング モデルと比較されました。
結果は、ClipMD が両方のデータセットで他のモデルよりも大幅に優れていることを示しています。
コードと事前トレーニング済みのモデルを公開しています。

要約(オリジナル)

This short technical report demonstrates a simple technique that yields state of the art results in medical image-text matching tasks. We analyze the use of OpenAI’s CLIP, a general image-text matching model, and observe that CLIP’s limited textual input size has negative impact on downstream performance in the medical domain where encoding longer textual contexts is often required. We thus train and release ClipMD, which is trained with a simple sliding window technique to encode textual captions. ClipMD was tested on two medical image-text datasets and compared with other image-text matching models. The results show that ClipMD outperforms other models on both datasets by a large margin. We make our code and pretrained model publicly available.

arxiv情報

著者 Idan Glassberg,Tom Hope
発行日 2023-03-23 15:20:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク