Model Stealing Attack against Recommender System

要約

最近の研究では、データプライバシー攻撃に対するレコメンダーシステムの脆弱性が実証されています。
ただし、モデル盗用攻撃など、レコメンダー システムにおけるモデルのプライバシーに対する脅威に関する研究はまだ初期段階にあります。
一部の敵対的攻撃は、対象モデルの豊富な学習データ(ターゲットデータ)を収集したり、大量のクエリを作成したりすることで、レコメンダシステムに対するモデル窃取攻撃をある程度実現しています。
本稿では、利用可能なターゲットデータとクエリの量を制限し、ターゲットデータと設定された項目を共有する補助データを利用してモデル盗用攻撃を促進します。
ターゲット モデルはターゲット データと補助データを異なる方法で扱いますが、それらの動作パターンが類似しているため、攻撃を支援するアテンション メカニズムを使用してこれらを融合できます。
さらに、ターゲットモデルにクエリを実行して得られた推奨リストを効果的に抽出する盗用関数を設計します。
実験結果は、提案された方法がほとんどのレコメンダー システムとさまざまなシナリオに適用可能であり、複数のデータセットに対して優れた攻撃パフォーマンスを示すことを示しています。

要約(オリジナル)

Recent studies have demonstrated the vulnerability of recommender systems to data privacy attacks. However, research on the threat to model privacy in recommender systems, such as model stealing attacks, is still in its infancy. Some adversarial attacks have achieved model stealing attacks against recommender systems, to some extent, by collecting abundant training data of the target model (target data) or making a mass of queries. In this paper, we constrain the volume of available target data and queries and utilize auxiliary data, which shares the item set with the target data, to promote model stealing attacks. Although the target model treats target and auxiliary data differently, their similar behavior patterns allow them to be fused using an attention mechanism to assist attacks. Besides, we design stealing functions to effectively extract the recommendation list obtained by querying the target model. Experimental results show that the proposed methods are applicable to most recommender systems and various scenarios and exhibit excellent attack performance on multiple datasets.

arxiv情報

著者 Zhihao Zhu,Rui Fan,Chenwang Wu,Yi Yang,Defu Lian,Enhong Chen
発行日 2023-12-26 09:09:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク