Volcano: Mitigating Multimodal Hallucination through Self-Feedback Guided Revision

要約

大規模なマルチモーダル モデル (LMM) はマルチモーダル幻覚に悩まされ、与えられた視覚情報とずれた誤った応答を返します。
最近の研究では、マルチモーダル幻覚の背後にある理由の 1 つは、ビジョン エンコーダが画像を適切に認識できていないことにあるのではないかと推測されています。
この問題を軽減するために、視覚的な合図として自己フィードバックを活用する新しいアプローチを提案します。
このアプローチに基づいて、マルチモーダルな自己フィードバックによるガイド付き改訂モデルである Volcano を紹介します。
Volcano は、提供された視覚情報に基づいて初期応答に対する自然言語フィードバックを生成し、このフィードバックを利用して初期応答を自己修正します。
Volcano は、マルチモーダル幻覚を効果的に軽減し、MMHal-Bench、POPE、GAVIE で最先端の機能を実現します。
また、一般的なマルチモーダル機能も向上し、MM-Vet および MMBench で以前のモデルを上回ります。
定性分析を通じて、Volcano のフィードバックが初期応答よりも画像に適切に基づいていることを示します。
これは、Volcano がより豊富な視覚情報を自らに提供し、多峰性幻覚の軽減に役立つことを示しています。
7B および 13B サイズの Volcano モデルを、データとコードとともに https://github.com/kaistAI/Volcano で公開しています。

要約(オリジナル)

Large multimodal models (LMMs) suffer from multimodal hallucination, where they provide incorrect responses misaligned with the given visual information. Recent works have conjectured that one of the reasons behind multimodal hallucination might be due to the vision encoder failing to ground on the image properly. To mitigate this issue, we propose a novel approach that leverages self-feedback as visual cues. Building on this approach, we introduce Volcano, a multimodal self-feedback guided revision model. Volcano generates natural language feedback to its initial response based on the provided visual information and utilizes this feedback to self-revise its initial response. Volcano effectively reduces multimodal hallucination and achieves state-of-the-art on MMHal-Bench, POPE, and GAVIE. It also improves on general multimodal abilities and outperforms previous models on MM-Vet and MMBench. Through a qualitative analysis, we show that Volcano’s feedback is properly grounded on the image than the initial response. This indicates that Volcano can provide itself with richer visual information, helping alleviate multimodal hallucination. We publicly release Volcano models of 7B and 13B sizes along with the data and code at https://github.com/kaistAI/Volcano.

arxiv情報

著者 Seongyun Lee,Sue Hyun Park,Yongrae Jo,Minjoon Seo
発行日 2023-11-14 06:04:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV パーマリンク