Generative Large Language Models in Automated Fact-Checking: A Survey

要約

オンライン プラットフォーム全体での虚偽の情報の拡散は深刻な社会的課題を引き起こしており、情報検証のための強力な対策が必要です。
手動による事実確認の取り組みは依然として有効ですが、虚偽の情報が増大しているため、自動化された方法が必要です。
大規模言語モデル (LLM) は、LLM の広範な知識と堅牢な推論機能を活用して、ファクトチェッカーを支援する有望な機会を提供します。
この調査報告書では、ファクトチェックの領域における生成 LLM の利用状況を調査し、使用されているさまざまなアプローチと、LLM のプロンプトまたは微調整を行うための手法を示します。
この調査は、既存のアプローチの概要を提供することで、ファクトチェックにおける LLM の活用についての理解を深め、このプロセスへの LLM の関与のさらなる進歩を促進することを目的としています。

要約(オリジナル)

The dissemination of false information across online platforms poses a serious societal challenge, necessitating robust measures for information verification. While manual fact-checking efforts are still instrumental, the growing volume of false information requires automated methods. Large language models (LLMs) offer promising opportunities to assist fact-checkers, leveraging LLM’s extensive knowledge and robust reasoning capabilities. In this survey paper, we investigate the utilization of generative LLMs in the realm of fact-checking, illustrating various approaches that have been employed and techniques for prompting or fine-tuning LLMs. By providing an overview of existing approaches, this survey aims to improve the understanding of utilizing LLMs in fact-checking and to facilitate further progress in LLMs’ involvement in this process.

arxiv情報

著者 Ivan Vykopal,Matúš Pikuliak,Simon Ostermann,Marián Šimko
発行日 2024-07-02 15:16:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク