要約
グラフニューラルネットワーク(GNN)は様々なアプリケーションにおいて優れているが、敵対的な攻撃、特にグラフインジェクション攻撃(GIA)に対して脆弱である。テキスト属性グラフ(TAGs)は、ノードがテキストの特徴に関連付けられ、実世界のアプリケーションで普及しているため非常に重要であり、これらの脆弱性を評価するために一般的に使用されている。しかし、既存の研究は、実際のテキストコンテンツではなくノードの埋め込みを注入する埋め込みレベルのGIAにのみ焦点を当てており、その適用性を制限し、検出を単純化している。本論文では、テキストレベルでのGIAの研究を開拓し、テキストコンテンツをグラフに注入する3つの新しい攻撃デザインを提示する。理論的かつ実証的な分析を通じて、これまで埋め込みレベルでは見過ごされてきた要因であるテキストの解釈可能性が、攻撃の強さにおいて重要な役割を果たすことを実証する。我々が調査した設計の中で、単語頻度に基づくテキストレベルGIA(WTGIA)は、性能と解釈可能性のバランスにおいて特に注目に値する。WTGIAの成功にもかかわらず、我々は防御側がカスタマイズされたテキスト埋め込み手法や大規模言語モデル(LLM)ベースの予測器を用いて防御を容易に強化できることを発見した。これらの洞察は、テキストレベルGIAの可能性と実用的な意義に関するさらなる研究の必要性を強調している。
要約(オリジナル)
Graph Neural Networks (GNNs) excel across various applications but remain vulnerable to adversarial attacks, particularly Graph Injection Attacks (GIAs), which inject malicious nodes into the original graph and pose realistic threats. Text-attributed graphs (TAGs), where nodes are associated with textual features, are crucial due to their prevalence in real-world applications and are commonly used to evaluate these vulnerabilities. However, existing research only focuses on embedding-level GIAs, which inject node embeddings rather than actual textual content, limiting their applicability and simplifying detection. In this paper, we pioneer the exploration of GIAs at the text level, presenting three novel attack designs that inject textual content into the graph. Through theoretical and empirical analysis, we demonstrate that text interpretability, a factor previously overlooked at the embedding level, plays a crucial role in attack strength. Among the designs we investigate, the Word-frequency-based Text-level GIA (WTGIA) is particularly notable for its balance between performance and interpretability. Despite the success of WTGIA, we discover that defenders can easily enhance their defenses with customized text embedding methods or large language model (LLM)–based predictors. These insights underscore the necessity for further research into the potential and practical significance of text-level GIAs.
arxiv情報
著者 | Runlin Lei,Yuwei Hu,Yuchen Ren,Zhewei Wei |
発行日 | 2024-11-01 12:15:36+00:00 |
arxivサイト | arxiv_id(pdf) |