SimpleSafetyTests: a Test Suite for Identifying Critical Safety Risks in Large Language Models

要約

過去 1 年で、大規模言語モデル (LLM) の開発が急速に加速しました。
現在、多くのタスクに対して、ChatGPT のような独自モデルの実行可能な代替となる、オープンソースおよびオープンアクセスの LLM が幅広く存在します。
ただし、適切な操作と保護策がなければ、LLM は悪意のある指示に従い、安全でないアドバイスを提供し、有害なコンテンツを生成します。
これは企業や開発者にとって重大な安全上のリスクです。
このような重大な安全リスクを迅速かつ体系的に特定するための新しいテスト スイートとして SimpleSafetyTests を紹介します。
このテスト スイートは、大部分のアプリケーションで LLM が準拠することを拒否する必要がある 5 つの危険領域にわたる 100 のテスト プロンプトで構成されています。
私たちは 11 の人気のあるオープン LLM をテストし、そのうちのいくつかに重大な安全上の弱点を発見しました。
一部の LLM は単一の危険な応答を返さない一方で、テストしたほとんどのモデルは 20% 以上のケースで危険な応答を示し、極端な場合は 50% 以上の危険な応答を示します。
安全性を重視したシステム プロンプトを先頭に追加すると、危険な応答の発生が大幅に減少しますが、危険な応答の発生を完全に阻止することはできません。
開発者には、重大な安全上のリスクに対する防御の第一線として、このようなシステム プロンプトを使用することをお勧めします。

要約(オリジナル)

The past year has seen rapid acceleration in the development of large language models (LLMs). For many tasks, there is now a wide range of open-source and open-access LLMs that are viable alternatives to proprietary models like ChatGPT. Without proper steering and safeguards, however, LLMs will readily follow malicious instructions, provide unsafe advice, and generate toxic content. This is a critical safety risk for businesses and developers. We introduce SimpleSafetyTests as a new test suite for rapidly and systematically identifying such critical safety risks. The test suite comprises 100 test prompts across five harm areas that LLMs, for the vast majority of applications, should refuse to comply with. We test 11 popular open LLMs and find critical safety weaknesses in several of them. While some LLMs do not give a single unsafe response, most models we test respond unsafely on more than 20% of cases, with over 50% unsafe responses in the extreme. Prepending a safety-emphasising system prompt substantially reduces the occurrence of unsafe responses, but does not completely stop them from happening. We recommend that developers use such system prompts as a first line of defence against critical safety risks.

arxiv情報

著者 Bertie Vidgen,Hannah Rose Kirk,Rebecca Qian,Nino Scherrer,Anand Kannappan,Scott A. Hale,Paul Röttger
発行日 2023-11-14 18:33:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク