要約
フェイクニュースは、ソーシャルネットワークとメディアにとってますます大きな課題となっています。
フェイクニュースの検出は長年にわたって常に問題となってきましたが、近年のソーシャルネットワークの進化とニュース拡散のスピードの増加を受けて、再び考慮されるようになりました。
この問題を解決するにはいくつかのアプローチがありますが、そのうちの 1 つは、ディープ ニューラル ネットワークを使用してテキスト スタイルに基づいてフェイク ニュースを検出することです。
近年、自然言語処理に最もよく使用されるディープ ニューラル ネットワークの形式の 1 つは、トランスフォーマーを使用した転移学習です。
BERT は、多くの NLP ベンチマークで他のモデルを上回るパフォーマンスを発揮する最も有望なトランスフォーマーの 1 つです。
この記事では、2 つの並列 BERT ネットワークを使用して全文ニュース記事の真実性検出を実行する MWPBert を紹介します。
BERT ネットワークの 1 つはニュースの見出しをエンコードし、もう 1 つはニュースの本文をエンコードします。
BERT ネットワークの入力長は制限され一定であり、ニュース本文は通常長いテキストであるため、ニュース テキスト全体を BERT に入力することはできません。
したがって、MaxWorth アルゴリズムを使用して、事実確認により価値のあるニュース テキストの部分を選択し、それを BERT ネットワークに供給しました。
最後に、2 つの BERT ネットワークの出力を出力ネットワークにエンコードして、ニュースを分類します。
実験結果は、提案されたモデルが精度やその他の性能尺度の点で以前のモデルよりも優れていることを示しました。
要約(オリジナル)
Fake news is a growing challenge for social networks and media. Detection of fake news always has been a problem for many years, but after the evolution of social networks and increasing speed of news dissemination in recent years has been considered again. There are several approaches to solving this problem, one of which is to detect fake news based on its text style using deep neural networks. In recent years, one of the most used forms of deep neural networks for natural language processing is transfer learning with transformers. BERT is one of the most promising transformers who outperforms other models in many NLP benchmarks. This article, we introduce MWPBert, which uses two parallel BERT networks to perform veracity detection on full-text news articles. One of the BERT networks encodes news headline, and another encodes news body. Since the input length of the BERT network is limited and constant and the news body is usually a long text, we cannot fed the whole news text into the BERT. Therefore, using the MaxWorth algorithm, we selected the part of the news text that is more valuable for fact-checking, and fed it into the BERT network. Finally, we encode the output of the two BERT networks to an output network to classify the news. The experiment results showed that the proposed model outperformed previous models in terms of accuracy and other performance measures.
arxiv情報
著者 | Mahmood Farokhian,Vahid Rafe,Hadi Veisi |
発行日 | 2023-10-17 16:02:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google