要約
ファクトチェックは誤った情報を確実に防ぐための重要な作業です。
しかし、手動による事実確認では、誤った情報がオンラインで生成され、拡散される速度に追いつくことができません。
機械による自動ファクトチェックは、人間による場合よりも大幅に高速です。
しかし、これらの自動化システムの信頼性と透明性を高めるためには、事実確認プロセスにおける説明可能性が必要です。
ファクトチェックでは、多くの場合、事実に基づく主張とそのような説明のための一連の知識を対比することが必要になります。
知識を表現する効果的な方法は、ナレッジ グラフ (KG) です。
KG を使用したファクトチェックに関連して提案された十分な研究がありますが、そのような場合の強化学習 (RL) の適用にはあまり重点が置かれていません。
このギャップを軽減するために、説明可能な事実確認のための RL ベースの KG 推論アプローチを提案します。
FB15K-277 および NELL-995 データセットに関する広範な実験により、KG を使用した推論が、事実主張のパスと分類の形式で人間が読める説明を生成する効果的な方法であることが明らかになりました。
RL 推論エージェントは、事実の主張を証明または反証するパスを計算しますが、評決自体は提供しません。
評決は、エージェントによって生成されたパスを利用する投票メカニズムによって行われます。
これらのパスは人間の読者に提示され、提供された証拠が説得力があるかどうかを読者自身が判断できるようになります。
この取り組みは、人間参加型のアプローチを提供することで信頼性を高めるため、説明可能なファクトチェックのために RL を組み込む方向での取り組みを促進することになります。
要約(オリジナル)
Fact-checking is a crucial task as it ensures the prevention of misinformation. However, manual fact-checking cannot keep up with the rate at which false information is generated and disseminated online. Automated fact-checking by machines is significantly quicker than by humans. But for better trust and transparency of these automated systems, explainability in the fact-checking process is necessary. Fact-checking often entails contrasting a factual assertion with a body of knowledge for such explanations. An effective way of representing knowledge is the Knowledge Graph (KG). There have been sufficient works proposed related to fact-checking with the usage of KG but not much focus is given to the application of reinforcement learning (RL) in such cases. To mitigate this gap, we propose an RL-based KG reasoning approach for explainable fact-checking. Extensive experiments on FB15K-277 and NELL-995 datasets reveal that reasoning over a KG is an effective way of producing human-readable explanations in the form of paths and classifications for fact claims. The RL reasoning agent computes a path that either proves or disproves a factual claim, but does not provide a verdict itself. A verdict is reached by a voting mechanism that utilizes paths produced by the agent. These paths can be presented to human readers so that they themselves can decide whether or not the provided evidence is convincing or not. This work will encourage works in this direction for incorporating RL for explainable fact-checking as it increases trustworthiness by providing a human-in-the-loop approach.
arxiv情報
著者 | Gustav Nikopensius,Mohit Mayank,Orchid Chetia Phukan,Rajesh Sharma |
発行日 | 2023-10-11 15:58:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google