Large Language Models for Multilingual Previously Fact-Checked Claim Detection

要約

広範囲にわたる虚偽の情報の時代において、人間の事実確認者は、他の国や言語ですでに対処されている可能性のある主張を検証する際に、努力を重複させるという課題にしばしば直面しています。
誤った情報が言語の境界を超えているため、言語間で以前に事前にチェックされたクレームを自動的に検出する能力がますます重要なタスクになりました。
このペーパーでは、以前に事前にチェックされた多言語の請求検出に関する大規模な言語モデル(LLMS)の最初の包括的な評価を紹介します。
単一言語と横断的な設定の両方で、20の言語で7つのLLMを評価します。
私たちの結果は、LLMSが高リソース言語ではうまく機能しますが、リソースの低い言語に苦労していることを示しています。
さらに、元のテキストを英語に翻訳することは、低リソース言語にとって有益であることが証明されました。
これらの調査結果は、以前に事前に確認された多言語の請求検出のLLMSの可能性を強調し、LLMSのこの有望な適用に関するさらなる研究の基盤を提供します。

要約(オリジナル)

In our era of widespread false information, human fact-checkers often face the challenge of duplicating efforts when verifying claims that may have already been addressed in other countries or languages. As false information transcends linguistic boundaries, the ability to automatically detect previously fact-checked claims across languages has become an increasingly important task. This paper presents the first comprehensive evaluation of large language models (LLMs) for multilingual previously fact-checked claim detection. We assess seven LLMs across 20 languages in both monolingual and cross-lingual settings. Our results show that while LLMs perform well for high-resource languages, they struggle with low-resource languages. Moreover, translating original texts into English proved to be beneficial for low-resource languages. These findings highlight the potential of LLMs for multilingual previously fact-checked claim detection and provide a foundation for further research on this promising application of LLMs.

arxiv情報

著者 Ivan Vykopal,Matúš Pikuliak,Simon Ostermann,Tatiana Anikina,Michal Gregor,Marián Šimko
発行日 2025-03-04 15:56:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク