要約
自動ファクトチェック用の既存のデータセットには、人為的な主張に依存する、証拠や中間推論の注釈が欠如している、主張後に公開された証拠が含まれているなど、大きな制限があります。
このペーパーでは、50 の異なる組織によるファクトチェックをカバーする 4,568 件の実世界の主張の新しいデータセットである AVeriTeC を紹介します。
各主張には、オンラインで入手可能な証拠によって裏付けられた質問と回答のペア、および証拠がどのように組み合わされて判決が得られるかを説明するテキストによる根拠が注釈として付けられています。
複数ラウンドのアノテーション プロセスを通じて、コンテキスト依存、証拠の不十分さ、時間的漏洩などのよくある落とし穴を回避し、評決に関して $\kappa=0.619$ というアノテーター間の実質的な合意に達します。
私たちは、オープンウェブに対するいくつかの質問回答ステップを通じて主張を検証するためのベースラインと評価スキームを開発します。
要約(オリジナル)
Existing datasets for automated fact-checking have substantial limitations, such as relying on artificial claims, lacking annotations for evidence and intermediate reasoning, or including evidence published after the claim. In this paper we introduce AVeriTeC, a new dataset of 4,568 real-world claims covering fact-checks by 50 different organizations. Each claim is annotated with question-answer pairs supported by evidence available online, as well as textual justifications explaining how the evidence combines to produce a verdict. Through a multi-round annotation process, we avoid common pitfalls including context dependence, evidence insufficiency, and temporal leakage, and reach a substantial inter-annotator agreement of $\kappa=0.619$ on verdicts. We develop a baseline as well as an evaluation scheme for verifying claims through several question-answering steps against the open web.
arxiv情報
著者 | Michael Schlichtkrull,Zhijiang Guo,Andreas Vlachos |
発行日 | 2023-11-08 11:53:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google