要約
オンラインの偽情報はグローバルな課題を提起し、虚偽の情報の拡散を防ぐために請求を効率的に検証しなければならない事実確認者に大きな要求を置きます。
このプロセスの主要な問題は、すでに事実にチェックされた請求の冗長な検証であり、これにより、ワークロードが増加し、新たに出現したクレームに対する応答が遅れます。
この研究では、以前に事実確認されたクレームを取得し、特定の入力との関連性を評価し、事実確認者をサポートするための補足情報を提供するアプローチを紹介します。
私たちの方法は、大規模な言語モデル(LLM)を採用して、無関係なファクトチェックをフィルタリングし、簡潔な要約と説明を生成し、事実確認者が以前に検証されたかどうかをより速く評価できるようにします。
さらに、人間が開発されたツールと相互作用してその有効性をレビューする自動評価と人間の両方の評価を通じてアプローチを評価します。
我々の結果は、LLMが多くの無関係な事実チェックを除外し、したがって、努力を削減し、事実確認プロセスを合理化できることを示しています。
要約(オリジナル)
Online disinformation poses a global challenge, placing significant demands on fact-checkers who must verify claims efficiently to prevent the spread of false information. A major issue in this process is the redundant verification of already fact-checked claims, which increases workload and delays responses to newly emerging claims. This research introduces an approach that retrieves previously fact-checked claims, evaluates their relevance to a given input, and provides supplementary information to support fact-checkers. Our method employs large language models (LLMs) to filter irrelevant fact-checks and generate concise summaries and explanations, enabling fact-checkers to faster assess whether a claim has been verified before. In addition, we evaluate our approach through both automatic and human assessments, where humans interact with the developed tool to review its effectiveness. Our results demonstrate that LLMs are able to filter out many irrelevant fact-checks and, therefore, reduce effort and streamline the fact-checking process.
arxiv情報
著者 | Ivan Vykopal,Martin Hyben,Robert Moro,Michal Gregor,Jakub Simko |
発行日 | 2025-04-29 11:49:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google