On the Adversarial Robustness of Graph Contrastive Learning Methods

要約

対照学習 (CL) は、敵対的な攻撃に対するモデルの堅牢性を強化しながら、自己教師ありの方法で画像とテキストの表現を学習するための強力なフレームワークとして登場しました。
最近では、研究者が対照学習の原理をグラフ構造データに拡張し、グラフ対照学習 (GCL) の分野を誕生させました。
ただし、GCL メソッドが、画像およびテキスト ドメインの対応するメソッドと同様に、敵対的堅牢性において同じ利点を提供できるかどうかは、未解決の問題のままです。
この論文では、GCL モデルの堅牢性を評価するために調整された包括的な堅牢性評価プロトコルを紹介します。
これらのモデルを、特に回避シナリオにおいて、グラフ構造をターゲットとした適応型敵対的攻撃にさらします。
さまざまな現実世界のデータセットと攻撃戦略を使用して、ノードとグラフの分類タスクを評価します。
私たちの研究は、GCL 手法の堅牢性についての洞察を提供することを目的としており、将来の研究の方向性への道を開くことを望んでいます。

要約(オリジナル)

Contrastive learning (CL) has emerged as a powerful framework for learning representations of images and text in a self-supervised manner while enhancing model robustness against adversarial attacks. More recently, researchers have extended the principles of contrastive learning to graph-structured data, giving birth to the field of graph contrastive learning (GCL). However, whether GCL methods can deliver the same advantages in adversarial robustness as their counterparts in the image and text domains remains an open question. In this paper, we introduce a comprehensive robustness evaluation protocol tailored to assess the robustness of GCL models. We subject these models to adaptive adversarial attacks targeting the graph structure, specifically in the evasion scenario. We evaluate node and graph classification tasks using diverse real-world datasets and attack strategies. With our work, we aim to offer insights into the robustness of GCL methods and hope to open avenues for potential future research directions.

arxiv情報

著者 Filippo Guerranti,Zinuo Yi,Anna Starovoit,Rafiq Kamel,Simon Geisler,Stephan Günnemann
発行日 2023-11-29 17:59:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク