要約
画像内のピクセルレベルのヒントを使用して部分的に不明瞭なテキストを正確に復元するようにモデルに挑戦する新しいビジョン言語タスクである視覚的なキャプション修復(VCR)を紹介します。
このタスクは、画像に埋め込まれたテキストは、画像に埋め込まれた視覚、テキスト、テキストのモダリティを調整する必要があるため、一般的な視覚要素や自然言語と本質的に異なるという観察から生じます。
多くの作品では、画像に視覚的な質問回答タスクに埋め込まれたテキストを統合していますが、これらのタスクへのアプローチは一般に光学的文字認識またはマスクされた言語モデリングに依存しているため、タスクを主にテキストベースの処理に減らします。
ただし、正確なテキストの復元は、提供された画像、コンテキスト、およびマスクされたテキストの小さな露出領域からの微妙な手がかりからの組み合わせ情報に依存するため、VCRでテキストベースの処理が効果的になります。
画像キャプションペアを使用してVCRタスクの合成画像を生成するパイプラインを開発し、タスクの難易度を制御するための調整可能なキャプションの可視性を備えています。
このパイプラインを使用すると、Wikipediaのキャプションを備えた画像を使用してVCR-Wikiと呼ばれるVCRのデータセットを構築します。
私たちの結果は、現在のビジョン言語モデルがVCRタスクで人間のパフォーマンスに大きく遅れていることを明らかにしており、データセットのモデルを微調整しても顕著な改善につながらないことがわかります。
将来の研究を促進するために、VCR-Wikiとデータ構築コードをリリースします。
要約(オリジナル)
We introduce Visual Caption Restoration (VCR), a novel vision-language task that challenges models to accurately restore partially obscured texts using pixel-level hints within images. This task stems from the observation that text embedded in images is intrinsically different from common visual elements and natural language due to the need to align the modalities of vision, text, and text embedded in images. While numerous works have integrated text embedded in images into visual question-answering tasks, approaches to these tasks generally rely on optical character recognition or masked language modeling, thus reducing the task to mainly text-based processing. However, text-based processing becomes ineffective in VCR as accurate text restoration depends on the combined information from provided images, context, and subtle cues from the tiny exposed areas of masked texts. We develop a pipeline to generate synthetic images for the VCR task using image-caption pairs, with adjustable caption visibility to control the task difficulty. With this pipeline, we construct a dataset for VCR called VCR-Wiki using images with captions from Wikipedia, comprising 2.11M English and 346K Chinese entities in both easy and hard split variants. Our results reveal that current vision language models significantly lag behind human performance in the VCR task, and merely fine-tuning the models on our dataset does not lead to notable improvements. We release VCR-Wiki and the data construction code to facilitate future research.
arxiv情報
著者 | Tianyu Zhang,Suyuchen Wang,Lu Li,Ge Zhang,Perouz Taslakian,Sai Rajeswar,Jie Fu,Bang Liu,Yoshua Bengio |
発行日 | 2025-04-18 16:42:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google