要約
ニュースメディア、特にビデオニュースメディアは日常生活のあらゆる側面に浸透しており、フェイクニュースのリスクももたらしています。
したがって、マルチモーダルなフェイクニュース検出は最近ますます注目を集めています。
ただし、既存のデータセットはユーザーがアップロードしたビデオで構成されており、過剰な量の余分なデータが含まれているため、モデルのトレーニング プロセスにノイズが生じます。
この問題に対処するために、公式に公開されたニュースビデオを含む、Official-NV という名前のデータセットを構築します。
公式に公開されたクロールビデオは、LLM ベースの生成と手動検証の使用によって強化され、それによってデータセットが拡張されます。
また、OFNVD と呼ばれる新しいベースライン モデルも提案します。これは、GLU アテンション メカニズムを通じてマルチモーダル特徴から重要な情報を取得し、クロスモーダル Transformer を通じて特徴強化とモーダル集約を実行します。
データセットとベースラインのベンチマークを行うと、マルチモーダル ニュース検出におけるモデルの有効性が実証されます。
要約(オリジナル)
News media, especially video news media, have penetrated into every aspect of daily life, which also brings the risk of fake news. Therefore, multimodal fake news detection has recently garnered increased attention. However, the existing datasets are comprised of user-uploaded videos and contain an excess amounts of superfluous data, which introduces noise into the model training process. To address this issue, we construct a dataset named Official-NV, comprising officially published news videos. The crawl officially published videos are augmented through the use of LLMs-based generation and manual verification, thereby expanding the dataset. We also propose a new baseline model called OFNVD, which captures key information from multimodal features through a GLU attention mechanism and performs feature enhancement and modal aggregation via a cross-modal Transformer. Benchmarking the dataset and baselines demonstrates the effectiveness of our model in multimodal news detection.
arxiv情報
著者 | Yihao Wang,Lizhi Chen,Zhong Qian,Peifeng Li |
発行日 | 2024-12-27 10:34:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google