要約
ダイナミック グラフによるリンク予測 (LPDG) は、Web サイトの推奨、トラフィック フロー予測、組織研究などの実世界のアプリケーションに広く適用されています。これらのモデルは通常、ローカルで安全に保管され、対話型インターフェイスのみが限定的に公開されています。
。
したがって、モデルの相互作用とデータの摂動が制限されている LPDG モデルに対するブラックボックス回避攻撃の問題は、実際には本質的かつ意味があると思われます。
本稿では、限られた量の相互作用と摂動の範囲内で、ターゲットの LPDG モデルに対して効果的な攻撃を達成する、最初の実用的なブラックボックス回避攻撃手法を提案します。
限られた摂動の下で効果的な攻撃を実行するために、深層強化学習フレームワークの下で、動的グラフ シーケンスの望ましい状態の埋め込みを見つけるためのグラフ逐次埋め込みモデルを開発します。
インタラクションの不足を克服するために、集合的なインタラクション バッファーを共有することで、マルチ環境トレーニング パイプラインを設計し、複数のインスタンスに対してエージェントをトレーニングします。
最後に、スケールの異なる 3 つの現実世界のグラフ データセットに対する 3 つの高度な LPDG モデルに対する攻撃を評価し、相互作用と摂動の制約の下でそのパフォーマンスを関連手法と比較します。
実験結果は、私たちの攻撃が効果的かつ実行可能であることを示しています。
要約(オリジナル)
Link prediction in dynamic graphs (LPDG) has been widely applied to real-world applications such as website recommendation, traffic flow prediction, organizational studies, etc. These models are usually kept local and secure, with only the interactive interface restrictively available to the public. Thus, the problem of the black-box evasion attack on the LPDG model, where model interactions and data perturbations are restricted, seems to be essential and meaningful in practice. In this paper, we propose the first practicable black-box evasion attack method that achieves effective attacks against the target LPDG model, within a limited amount of interactions and perturbations. To perform effective attacks under limited perturbations, we develop a graph sequential embedding model to find the desired state embedding of the dynamic graph sequences, under a deep reinforcement learning framework. To overcome the scarcity of interactions, we design a multi-environment training pipeline and train our agent for multiple instances, by sharing an aggregate interaction buffer. Finally, we evaluate our attack against three advanced LPDG models on three real-world graph datasets of different scales and compare its performance with related methods under the interaction and perturbation constraints. Experimental results show that our attack is both effective and practicable.
arxiv情報
著者 | Jiate Li,Meng Pang,Binghui Wang |
発行日 | 2024-12-17 17:53:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google