Self-Evaluation as a Defense Against Adversarial Attacks on LLMs

要約

自己評価を利用した LLM への敵対的攻撃に対する防御策を紹介します。
私たちの方法ではモデルの微調整は必要なく、代わりに事前トレーニングされたモデルを使用してジェネレーター モデルの入力と出力を評価し、他の微調整ベースの方法と比較して実装コストを大幅に削減します。
私たちの方法は、オープンソース LLM とクローズドソース LLM の両方に対する攻撃の成功率を、Llama-Guard2 や一般的に使用されているコンテンツ モデレーション API で実証された削減を超えて大幅に削減できます。
さまざまな設定で評価者を攻撃する試みを含む、私たちの手法の有効性の分析を示し、既存の手法よりも攻撃に対する耐性が高いことを示します。
コードとデータは https://github.com/Linlt-leon/self-eval で利用可能になります。

要約(オリジナル)

We introduce a defense against adversarial attacks on LLMs utilizing self-evaluation. Our method requires no model fine-tuning, instead using pre-trained models to evaluate the inputs and outputs of a generator model, significantly reducing the cost of implementation in comparison to other, finetuning-based methods. Our method can significantly reduce the attack success rate of attacks on both open and closed-source LLMs, beyond the reductions demonstrated by Llama-Guard2 and commonly used content moderation APIs. We present an analysis of the effectiveness of our method, including attempts to attack the evaluator in various settings, demonstrating that it is also more resilient to attacks than existing methods. Code and data will be made available at https://github.com/Linlt-leon/self-eval.

arxiv情報

著者 Hannah Brown,Leon Lin,Kenji Kawaguchi,Michael Shieh
発行日 2024-08-06 11:15:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.LG パーマリンク