RAGAR, Your Falsehood RADAR: RAG-Augmented Reasoning for Political Fact-Checking using Multimodal Large Language Models

要約

特に政治的議論の文脈において、誤った情報への挑戦がエスカレートしているため、ファクトチェックのための高度なソリューションが必要です。
私たちは、大規模言語モデル (LLM) と検索拡張生成 (RAG) ベースの高度な推論技術の統合を通じて、マルチモーダル ファクト チェックの信頼性と効率を高める革新的なアプローチを導入します。
この研究では、Chain of RAG (CoRAG) と Tree of RAG (ToRAG) という 2 つの新しい方法論を提案しています。
このアプローチは、以前の証拠に基づいて回答する必要がある次の質問を推論することによって、多様な主張を処理できるように設計されています。
私たちのアプローチは、思考連鎖の真実性予測によるサブ質問生成という従来の事実確認アプローチに比べて、真実性の予測と説明の生成の精度を向上させます。
この研究では、テキストと画像の両方の分析に熟達したマルチモーダル LLM を採用することで、誤った情報を特定し、それに対抗する自動システムの機能を進歩させています。

要約(オリジナル)

The escalating challenge of misinformation, particularly in the context of political discourse, necessitates advanced solutions for fact-checking. We introduce innovative approaches to enhance the reliability and efficiency of multimodal fact-checking through the integration of Large Language Models (LLMs) with Retrieval-augmented Generation (RAG)- based advanced reasoning techniques. This work proposes two novel methodologies, Chain of RAG (CoRAG) and Tree of RAG (ToRAG). The approaches are designed to handle multimodal claims by reasoning the next questions that need to be answered based on previous evidence. Our approaches improve the accuracy of veracity predictions and the generation of explanations over the traditional fact-checking approach of sub-question generation with chain of thought veracity prediction. By employing multimodal LLMs adept at analyzing both text and images, this research advances the capability of automated systems in identifying and countering misinformation.

arxiv情報

著者 M. Abdul Khaliq,P. Chang,M. Ma,B. Pflugfelder,F. Miletić
発行日 2024-04-18 10:25:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.ET, cs.MA パーマリンク