Mind the Gap: Benchmarking Spatial Reasoning in Vision-Language Models

要約

Vision-Language Models(VLM)は最近、画像キャプション、視覚的な質問への回答、画像テキストの取得など、視覚的およびテキストの理解を統合するタスクに優れている強力なツールとして浮上しています。
ただし、VLMの既存のベンチマークには、オブジェクト検出やセマンティック理解などの関連タスクから空間的推論を分離できないことがよくあります。
この論文では、空間的推論を理解するための多面的なアプローチでこれらの欠陥に対処します。
人間の空間推論能力の多様で多次元的な性質によって知らされて、最初に空間的関係、方向とナビゲーション、精神的回転、空間視覚化の中心的要素を描写する詳細な分析を提示し、合成および実際の画像の両方のこれらのモデルのパフォーマンスを評価し、コントロールと自然なコンテンツを醸造します。
13の最先端のビジョン言語モデルを分析し、その空間推論パフォーマンスに関する極めて重要な洞察を明らかにします。
私たちの結果は、現在のVLMの深い欠点を明らかにしており、13のモデル全体で平均精度がランダムなチャンスに近いことを明らかにし、空間的推論を永続的な障害として強調しています。
この作業は、VLMS内の空間的推論を進めるための差し迫ったニーズを明らかにするだけでなく、将来の探査のための強固なプラットフォームを確立します。
github(https://github.com/stogiannidis/srbench)およびhuggingface(https://huggingface.co/datasets/stogiannidis/srbench)で利用可能なコード。

要約(オリジナル)

Vision-Language Models (VLMs) have recently emerged as powerful tools, excelling in tasks that integrate visual and textual comprehension, such as image captioning, visual question answering, and image-text retrieval. However, existing benchmarks for VLMs include spatial components, which often fail to isolate spatial reasoning from related tasks such as object detection or semantic comprehension. In this paper, we address these deficiencies with a multi-faceted approach towards understanding spatial reasoning. Informed by the diverse and multi-dimensional nature of human spatial reasoning abilities, we present a detailed analysis that first delineates the core elements of spatial reasoning: spatial relations, orientation and navigation, mental rotation, and spatial visualization, and then assesses the performance of these models in both synthetic and real-world images, bridging controlled and naturalistic contexts. We analyze 13 state-of-the-art Vision-Language Models, uncovering pivotal insights into their spatial reasoning performance. Our results reveal profound shortcomings in current VLMs, with average accuracy across the 13 models approximating random chance, highlighting spatial reasoning as a persistent obstacle. This work not only exposes the pressing need to advance spatial reasoning within VLMs but also establishes a solid platform for future exploration. Code available on GitHub (https://github.com/stogiannidis/srbench) and dataset available on HuggingFace (https://huggingface.co/datasets/stogiannidis/srbench).

arxiv情報

著者 Ilias Stogiannidis,Steven McDonagh,Sotirios A. Tsaftaris
発行日 2025-03-25 14:34:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV パーマリンク