要約
ソーシャルメディアを通じた誤った情報の急速な拡散により、自動化された事実確認の重要性が高まっています。
さらに、ディープニューラルモデルが予測を行う際に何に注目するかについての研究が近年増加しています。
この分野では大きな進歩が見られますが、人間の推論に匹敵する推論のレベルにはまだ達していません。
これらのギャップに対処するために、誤った情報を検出するためのマルチタスク説明可能なニューラル モデルを提案します。
具体的には、この研究では、モデルの真実性予測の説明生成プロセスをテキスト要約問題として定式化します。
さらに、提案されたモデルのパフォーマンスが公開されているデータセットで議論され、その結果が関連研究で評価されます。
要約(オリジナル)
The rapid dissemination of misinformation through social media increased the importance of automated fact-checking. Furthermore, studies on what deep neural models pay attention to when making predictions have increased in recent years. While significant progress has been made in this field, it has not yet reached a level of reasoning comparable to human reasoning. To address these gaps, we propose a multi-task explainable neural model for misinformation detection. Specifically, this work formulates an explanation generation process of the model’s veracity prediction as a text summarization problem. Additionally, the performance of the proposed model is discussed on publicly available datasets and the findings are evaluated with related studies.
arxiv情報
著者 | Recep Firat Cekinel,Pinar Karagoz |
発行日 | 2024-02-09 14:39:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google