要約
自然言語処理 (NLP) は最近成功を収めていますが、事実の検証は依然として難しい課題です。
誤った情報がますます急速に広まっているため、主張の正しさを自動的に検証することに注目が集まっています。
NLP の分野では、これは通常、信頼できるコーパスからの証拠を利用して主張を検証する教師あり機械学習モデルをトレーニングすることによって行われます。
証拠が構造化された知識グラフの形式であるデータセット上の主張を検証するための効率的な方法を紹介します。
Wikipedia から抽出された DBpedia ナレッジ グラフから構築された FactKG データセットを使用します。
微調整された言語モデルから単純な論理検索まで、証拠検索プロセスを簡素化することで、必要な計算リソースが少なくなり、テストセットの精度が向上するモデルを構築できます。
要約(オリジナル)
Despite recent success in natural language processing (NLP), fact verification still remains a difficult task. Due to misinformation spreading increasingly fast, attention has been directed towards automatically verifying the correctness of claims. In the domain of NLP, this is usually done by training supervised machine learning models to verify claims by utilizing evidence from trustworthy corpora. We present efficient methods for verifying claims on a dataset where the evidence is in the form of structured knowledge graphs. We use the FactKG dataset, which is constructed from the DBpedia knowledge graph extracted from Wikipedia. By simplifying the evidence retrieval process, from fine-tuned language models to simple logical retrievals, we are able to construct models that both require less computational resources and achieve better test-set accuracy.
arxiv情報
著者 | Tobias A. Opsahl |
発行日 | 2024-08-14 10:46:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google