XSTest: A Test Suite for Identifying Exaggerated Safety Behaviours in Large Language Models

要約

適切な保護策がなければ、大規模な言語モデルは悪意のある指示に従い、有害なコンテンツを生成してしまいます。
このリスクは、モデルを有益かつ無害なものにすることを目的としたレッドチームや大規模なフィードバック学習などの安全性への取り組みを動機づけます。
ただし、無害であるためにはモデルが安全でないプロンプトに従うことを拒否する必要があり、役に立たないため、これら 2 つの目的の間には緊張関係があります。
最近の事例証拠によると、一部のモデルはバランスが悪く、明らかに安全なプロンプトであっても、安全でないプロンプトと同様の言葉を使用したり、デリケートなトピックに言及した場合には拒否される可能性があります。
このペーパーでは、このような誇張された安全動作を体系的な方法で特定するための XSTest と呼ばれる新しいテスト スイートを紹介します。
XSTest は、適切にキャリブレーションされたモデルが従うことを拒否すべきではない 10 のプロンプト タイプにわたる 250 の安全なプロンプトと、対照として、ほとんどのアプリケーションでモデルが拒否すべき 200 の安全でないプロンプトで構成されます。
XSTest の作成と構成について説明し、次にテスト スイートを使用して、最先端の言語モデルにおける体系的な障害モードと、より安全な言語モデルを構築する際のより一般的な課題を強調します。

要約(オリジナル)

Without proper safeguards, large language models will readily follow malicious instructions and generate toxic content. This risk motivates safety efforts such as red-teaming and large-scale feedback learning, which aim to make models both helpful and harmless. However, there is a tension between these two objectives, since harmlessness requires models to refuse to comply with unsafe prompts, and thus not be helpful. Recent anecdotal evidence suggests that some models may have struck a poor balance, so that even clearly safe prompts are refused if they use similar language to unsafe prompts or mention sensitive topics. In this paper, we introduce a new test suite called XSTest to identify such eXaggerated Safety behaviours in a systematic way. XSTest comprises 250 safe prompts across ten prompt types that well-calibrated models should not refuse to comply with, and 200 unsafe prompts as contrasts that models, for most applications, should refuse. We describe XSTest’s creation and composition, and then use the test suite to highlight systematic failure modes in state-of-the-art language models as well as more general challenges in building safer language models.

arxiv情報

著者 Paul Röttger,Hannah Rose Kirk,Bertie Vidgen,Giuseppe Attanasio,Federico Bianchi,Dirk Hovy
発行日 2023-10-17 16:21:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク