ALOHa: A New Measure for Hallucination in Captioning Models

要約

最近、視覚的説明のためのマルチモーダル事前学習が進歩したにもかかわらず、最先端のモデルは、シーンに存在しないオブジェクトを幻視するなどのエラーを含むキャプションを生成する。オブジェクトの幻覚に対する既存の著名なメトリックであるCHAIRは、MS COCOオブジェクトと同義語の固定セットに限定されている。本研究では、物体幻覚を測定するために大規模言語モデル(LLM)を活用した、現代化されたオープン語彙メトリクスALOHaを提案する。具体的には、LLMを用いてキャプション候補から根拠となるオブジェクトを抽出し、キャプションとオブジェクト検出から参照オブジェクトとの意味的類似度を測定し、ハンガリーマッチングを用いて最終的な幻覚スコアを生成する。ALOHaは、幻覚の注釈が付けられたMS COCOキャプションの新しいゴールドスタンダードサブセットであるHATにおいて、CHAIRよりも13.6%多く幻覚オブジェクトを正しく識別し、オブジェクトがMS COCOカテゴリを超えるノーキャップにおいて、30.8%多く識別することを示す。我々のコードはhttps://davidmchan.github.io/aloha/。

要約(オリジナル)

Despite recent advances in multimodal pre-training for visual description, state-of-the-art models still produce captions containing errors, such as hallucinating objects not present in a scene. The existing prominent metric for object hallucination, CHAIR, is limited to a fixed set of MS COCO objects and synonyms. In this work, we propose a modernized open-vocabulary metric, ALOHa, which leverages large language models (LLMs) to measure object hallucinations. Specifically, we use an LLM to extract groundable objects from a candidate caption, measure their semantic similarity to reference objects from captions and object detections, and use Hungarian matching to produce a final hallucination score. We show that ALOHa correctly identifies 13.6% more hallucinated objects than CHAIR on HAT, a new gold-standard subset of MS COCO Captions annotated for hallucinations, and 30.8% more on nocaps, where objects extend beyond MS COCO categories. Our code is available at https://davidmchan.github.io/aloha/.

arxiv情報

著者 Suzanne Petryk,David M. Chan,Anish Kachinthaya,Haodi Zou,John Canny,Joseph E. Gonzalez,Trevor Darrell
発行日 2024-04-03 17:59:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG パーマリンク