Adversarial Data Poisoning for Fake News Detection: How to Make a Model Misclassify a Target News without Modifying It

要約

フェイクニュース検出モデルは偽情報に対抗するために重要であるが、敵対的攻撃によって操作される可能性がある。本ポジションペーパーでは、攻撃者が元のターゲットとなるニュースを操作することなく、特定のニュースコンテンツに対するオンライン学習検出器の性能をどのように損なうことができるかを分析する。ソーシャルネットワークのように、攻撃者がすべての情報を完全に制御できないような状況では、このシナリオは実際に起こりうる。そこで、攻撃者がどのようにポイズニングデータを学習データに導入し、オンライン学習手法の動作を操作できる可能性があるかを示す。我々の最初の発見は、ロジスティック回帰モデルの複雑さと攻撃タイプに基づく様々な影響を受けることを明らかにした。

要約(オリジナル)

Fake news detection models are critical to countering disinformation but can be manipulated through adversarial attacks. In this position paper, we analyze how an attacker can compromise the performance of an online learning detector on specific news content without being able to manipulate the original target news. In some contexts, such as social networks, where the attacker cannot exert complete control over all the information, this scenario can indeed be quite plausible. Therefore, we show how an attacker could potentially introduce poisoning data into the training data to manipulate the behavior of an online learning method. Our initial findings reveal varying susceptibility of logistic regression models based on complexity and attack type.

arxiv情報

著者 Federico Siciliano,Luca Maiano,Lorenzo Papa,Federica Baccini,Irene Amerini,Fabrizio Silvestri
発行日 2024-01-04 16:20:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CR, cs.LG パーマリンク