要約
現在、誤った情報の拡散が社会で大きな問題となっています。
私たちの研究は、テキスト文書で採用されている説得戦略を分析することにより、誤った情報を自動的に特定することを支援することに焦点を当てています。
私たちは、目的を達成するために、一般的な説得力のある文章戦術を包含する新しい注釈スキームを導入します。
さらに、私たちは、提案されたスキームを利用して専門家によって徹底的に注釈が付けられた、健康に関する誤った情報に関するデータセットを提供します。
私たちの貢献には、説得力のある文章戦略タイプでテキストに注釈を付けるという新しいタスクの提案が含まれます。
追加の情報源として説得力のある戦略を使用し、BERT ファミリの事前トレーニング済み言語モデルと GPT ファミリの生成大規模言語モデルを使用して、微調整および迅速なエンジニアリング手法を評価します。
私たちは、誤った情報の検出において、中間ラベルとして説得戦略を採用する効果を評価します。
私たちの結果は、これらの戦略により精度が向上し、誤情報検出モデルの説明可能性が向上することを示しています。
説得力のある戦略は貴重な洞察や説明として機能し、他のモデルや人間が情報の信頼性に関してより多くの情報に基づいた意思決定を行うことを可能にします。
要約(オリジナル)
Nowadays, the spread of misinformation is a prominent problem in society. Our research focuses on aiding the automatic identification of misinformation by analyzing the persuasive strategies employed in textual documents. We introduce a novel annotation scheme encompassing common persuasive writing tactics to achieve our objective. Additionally, we provide a dataset on health misinformation, thoroughly annotated by experts utilizing our proposed scheme. Our contribution includes proposing a new task of annotating pieces of text with their persuasive writing strategy types. We evaluate fine-tuning and prompt-engineering techniques with pre-trained language models of the BERT family and the generative large language models of the GPT family using persuasive strategies as an additional source of information. We evaluate the effects of employing persuasive strategies as intermediate labels in the context of misinformation detection. Our results show that those strategies enhance accuracy and improve the explainability of misinformation detection models. The persuasive strategies can serve as valuable insights and explanations, enabling other models or even humans to make more informed decisions regarding the trustworthiness of the information.
arxiv情報
著者 | Danial Kamali,Joseph Romain,Huiyi Liu,Wei Peng,Jingbo Meng,Parisa Kordjamshidi |
発行日 | 2024-04-10 14:13:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google