要約
ビジョン言語モデル(VLM)は視覚的な理解に優れていますが、視覚的な幻覚に苦しむことが多く、存在しないオブジェクト、アクション、または概念の説明を生成し、安全性が批判的なアプリケーションに重大なリスクをもたらします。
既存の幻覚緩和方法は、通常、2つのパラダイムのいずれかに従います。生成調整は、テキストを視覚入力に整列させるために動作をデコードすることと、外部モデルが出力を評価および修正する事後検証を変更します。
効果的ですが、生成調整方法はしばしばヒューリスティックに依存し、補正メカニズムを欠いていますが、事後検証は複雑であり、通常は複数のモデルを必要とし、それらを洗練するのではなく出力を拒否する傾向があります。
この作業では、幻覚を意識したトレーニングとフライの自己検証を統合する統合されたフレームワークであるReverseを紹介します。
1.3mを超える半合成サンプルを含む新しい幻覚検証データセットを活用することにより、新しい推論時間遡及的再サンプリング技術とともに、私たちのアプローチにより、VLMは生成中の幻覚を検出し、それらの幻覚を動的に修正することができます。
私たちの評価は、リバースが最先端の幻覚の削減を達成し、最高の既存の方法を椅子MSCOCOで最大12%、Haloquestで28%上回ることを示しています。
データセット、モデル、およびコードは、https://reverse-vlm.github.ioで入手できます。
要約(オリジナル)
Vision-Language Models (VLMs) excel at visual understanding but often suffer from visual hallucinations, where they generate descriptions of nonexistent objects, actions, or concepts, posing significant risks in safety-critical applications. Existing hallucination mitigation methods typically follow one of two paradigms: generation adjustment, which modifies decoding behavior to align text with visual inputs, and post-hoc verification, where external models assess and correct outputs. While effective, generation adjustment methods often rely on heuristics and lack correction mechanisms, while post-hoc verification is complicated, typically requiring multiple models and tending to reject outputs rather than refine them. In this work, we introduce REVERSE, a unified framework that integrates hallucination-aware training with on-the-fly self-verification. By leveraging a new hallucination-verification dataset containing over 1.3M semi-synthetic samples, along with a novel inference-time retrospective resampling technique, our approach enables VLMs to both detect hallucinations during generation and dynamically revise those hallucinations. Our evaluations show that REVERSE achieves state-of-the-art hallucination reduction, outperforming the best existing methods by up to 12% on CHAIR-MSCOCO and 28% on HaloQuest. Our dataset, model, and code are available at: https://reverse-vlm.github.io.
arxiv情報
著者 | Tsung-Han Wu,Heekyung Lee,Jiaxin Ge,Joseph E. Gonzalez,Trevor Darrell,David M. Chan |
発行日 | 2025-04-17 17:59:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google