要約
マルチモーダル大規模言語モデル (MLLM) は、人間による膨大な情報の処理をサポートする可能性を秘めています。
MLLM はすでに事実確認ツールとして使用されていますが、この点におけるその能力と限界については十分に研究されていません。
このギャップを埋めることがここでの目的です。
特に、現実世界のファクトチェックを容易にするために、現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案します。
私たちの方法論には証拠はなく、これらのモデルに固有の知識と推論能力のみを活用しています。
モデルの予測、説明、信頼レベルを抽出するプロンプトを設計することで、モデルの精度、堅牢性、失敗の理由に関する研究上の疑問を掘り下げます。
私たちは経験的に、(1) GPT-4V は、悪意のある誤解を招くマルチモーダルな主張を特定する際に優れたパフォーマンスを示し、不合理な側面や根底にある動機を説明する能力を備えていること、(2) 既存のオープンソース モデルは強いバイアスを示し、影響を受けやすいことを発見しました。
プロンプト。
私たちの研究は、誤ったマルチモーダル情報と闘い、安全で信頼できるマルチモーダル モデルを構築するための洞察を提供します。
私たちの知る限り、私たちは現実世界のファクトチェックのために MLLM を評価した最初の企業です。
要約(オリジナル)
Multimodal large language models (MLLMs) carry the potential to support humans in processing vast amounts of information. While MLLMs are already being used as a fact-checking tool, their abilities and limitations in this regard are understudied. Here is aim to bridge this gap. In particular, we propose a framework for systematically assessing the capacity of current multimodal models to facilitate real-world fact-checking. Our methodology is evidence-free, leveraging only these models’ intrinsic knowledge and reasoning capabilities. By designing prompts that extract models’ predictions, explanations, and confidence levels, we delve into research questions concerning model accuracy, robustness, and reasons for failure. We empirically find that (1) GPT-4V exhibits superior performance in identifying malicious and misleading multimodal claims, with the ability to explain the unreasonable aspects and underlying motives, and (2) existing open-source models exhibit strong biases and are highly sensitive to the prompt. Our study offers insights into combating false multimodal information and building secure, trustworthy multimodal models. To the best of our knowledge, we are the first to evaluate MLLMs for real-world fact-checking.
arxiv情報
著者 | Jiahui Geng,Yova Kementchedjhieva,Preslav Nakov,Iryna Gurevych |
発行日 | 2024-03-06 11:32:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google