要約
ネット情報の急速な普及に伴い、フェイクニュースの蔓延が深刻な社会課題となっています。
この研究では、テキストの統計的特徴と深い意味論的特徴を統合することによってフェイクニュースを識別および分類するための大規模言語モデル (LLM) に基づく新しい検出フレームワークを提案します。
私たちのアプローチでは、大規模言語モデルの文脈理解機能をテキスト分析に利用し、ハイブリッド アテンション メカニズムを導入して、フェイク ニュースの識別に特に重要な特徴の組み合わせに焦点を当てます。
WELFake ニュース データセットに対する広範な実験により、私たちのモデルが既存の手法を大幅に上回り、F1 スコアが 1.5% 向上したことが示されました。
さらに、アテンション ヒート マップと SHAP 値を通じてモデルの解釈可能性を評価し、コンテンツ レビュー戦略に実用的な洞察を提供します。
私たちのフレームワークは、フェイクニュースの拡散に対処するためのスケーラブルで効率的なソリューションを提供し、より信頼性の高いオンライン情報エコシステムの構築に役立ちます。
要約(オリジナル)
With the rapid growth of online information, the spread of fake news has become a serious social challenge. In this study, we propose a novel detection framework based on Large Language Models (LLMs) to identify and classify fake news by integrating textual statistical features and deep semantic features. Our approach utilizes the contextual understanding capability of the large language model for text analysis and introduces a hybrid attention mechanism to focus on feature combinations that are particularly important for fake news identification. Extensive experiments on the WELFake news dataset show that our model significantly outperforms existing methods, with a 1.5\% improvement in F1 score. In addition, we assess the interpretability of the model through attention heat maps and SHAP values, providing actionable insights for content review strategies. Our framework provides a scalable and efficient solution to deal with the spread of fake news and helps build a more reliable online information ecosystem.
arxiv情報
著者 | Xiaochuan Xu,Peiyang Yu,Zeqiu Xu,Jiani Wang |
発行日 | 2025-01-21 08:26:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google