Enhance Robustness of Language Models Against Variation Attack through Graph Integration

要約

自然言語処理 (NLP) における事前トレーニング済み言語モデル (PLM) の普及により、パフォーマンスの成果が大幅に向上しました。
しかし、これらのモデルは敵対的な攻撃(麻薬密売人からの偽装されたヒントなど)に対する脆弱性があり、特に文字の多様性やバリエーションが豊富で複雑な構造を持つ中国語では、重大な懸念が生じます。
この研究では、中国語コンテンツにおける文字バリエーション攻撃に対する PLM の堅牢性を高めるための新しい方法である CHinese vAriatioN Graph Enhancement (CHANGE) を提案します。
CHANGE は、漢字変化グラフを PLM に組み込むための新しいアプローチを提供します。
CHANGE は、グラフ構造を利用してさまざまな補足タスクを設計することにより、本質的に、敵対的に操作されたテキストの PLM の解釈を強化します。
多数の NLP タスクで実施された実験では、CHANGE が敵対的攻撃と戦う際に現在の言語モデルよりも優れたパフォーマンスを発揮し、堅牢な言語モデルの研究に貴重な貢献となることが示されています。
これらの発見は、堅牢な言語モデルの基礎に貢献し、現実世界のアプリケーションに対するグラフに基づく事前トレーニング戦略の大きな可能性を強調しています。

要約(オリジナル)

The widespread use of pre-trained language models (PLMs) in natural language processing (NLP) has greatly improved performance outcomes. However, these models’ vulnerability to adversarial attacks (e.g., camouflaged hints from drug dealers), particularly in the Chinese language with its rich character diversity/variation and complex structures, hatches vital apprehension. In this study, we propose a novel method, CHinese vAriatioN Graph Enhancement (CHANGE), to increase the robustness of PLMs against character variation attacks in Chinese content. CHANGE presents a novel approach for incorporating a Chinese character variation graph into the PLMs. Through designing different supplementary tasks utilizing the graph structure, CHANGE essentially enhances PLMs’ interpretation of adversarially manipulated text. Experiments conducted in a multitude of NLP tasks show that CHANGE outperforms current language models in combating against adversarial attacks and serves as a valuable contribution to robust language model research. These findings contribute to the groundwork on robust language models and highlight the substantial potential of graph-guided pre-training strategies for real-world applications.

arxiv情報

著者 Zi Xiong,Lizhi Qing,Yangyang Kang,Jiawei Liu,Hongsong Li,Changlong Sun,Xiaozhong Liu,Wei Lu
発行日 2024-04-18 09:04:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR パーマリンク