Adversarial Attacks on Online Learning to Rank with Stochastic Click Models

要約

私たちは、オンライン学習に対する敵対的攻撃のランク付けに関する最初の研究を提案します。
敵対者の目標は、オンライン学習のランク付けアルゴリズムを誤って誘導し、サブリニアな攻撃コストで対象アイテムを時間軸 $T$ までの線形倍でランキング リストの先頭に置くことです。
私たちは、ユーザーに提示されるランキング リストを混乱させる、一般化されたリスト ポイズニング攻撃を提案します。
この戦略は、一般的な確率的クリック モデルで後悔のないランカーを効率的に攻撃できます。
さらに、確率的クリック モデルの 2 つの代表的な OLTR アルゴリズムを効率的に攻撃できる、攻撃後終了という名前のクリック ポイズニング ベースの戦略を提案します。
提案された 2 つの方法の成功とコストの上限を理論的に分析します。
合成データと現実世界のデータに基づく実験結果により、提案された攻撃戦略の有効性とコスト効率がさらに検証されます。

要約(オリジナル)

We propose the first study of adversarial attacks on online learning to rank. The goal of the adversary is to misguide the online learning to rank algorithm to place the target item on top of the ranking list linear times to time horizon $T$ with a sublinear attack cost. We propose generalized list poisoning attacks that perturb the ranking list presented to the user. This strategy can efficiently attack any no-regret ranker in general stochastic click models. Furthermore, we propose a click poisoning-based strategy named attack-then-quit that can efficiently attack two representative OLTR algorithms for stochastic click models. We theoretically analyze the success and cost upper bound of the two proposed methods. Experimental results based on synthetic and real-world data further validate the effectiveness and cost-efficiency of the proposed attack strategies.

arxiv情報

著者 Zichen Wang,Rishab Balasubramanian,Hui Yuan,Chenyu Song,Mengdi Wang,Huazheng Wang
発行日 2023-05-30 17:05:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク