From Representational Harms to Quality-of-Service Harms: A Case Study on Llama 2 Safety Safeguards

要約

近年の大規模言語モデル(LLM)の進歩により、様々な領域でLLMが広く採用されるようになった。しかし、これらの進歩は、新たな安全リスクを導入し、すでに疎外されている人々への有害な影響に関する懸念を提起している。教師ありの安全指向の微調整や、人間のフィードバックからの安全な強化学習の活用など、安全保護手段を開発するための緩和努力が高まっているにもかかわらず、これらのモデルの安全性や染み付いたバイアスに関する複数の懸念が残っている。さらに、これまでの研究では、安全のために最適化されたモデルは、予防措置として特定の要求への応答を控える傾向など、しばしば誇張された安全行動を示すことが実証されている。このように、これらのモデルの有用性と安全性の間には明確なトレードオフがあることが文献に示されている。本論文では、すでに緩和されたバイアスについてモデルを評価することにより、安全対策の有効性をさらに調査する。ラマ2のケースを例として、LLMの安全性応答がいかに有害な仮定を内包しているかを説明する。そのために、有害でないプロンプトのセットを作成し、それを使ってラマ・モデルを評価する。ユーザーに対するLLMの応答に関する新しい分類法を通じて、安全性と有用性のトレードオフが特定の人口統計グループに対してより顕著であることを観察する。

要約(オリジナル)

Recent progress in large language models (LLMs) has led to their widespread adoption in various domains. However, these advancements have also introduced additional safety risks and raised concerns regarding their detrimental impact on already marginalized populations. Despite growing mitigation efforts to develop safety safeguards, such as supervised safety-oriented fine-tuning and leveraging safe reinforcement learning from human feedback, multiple concerns regarding the safety and ingrained biases in these models remain. Furthermore, previous work has demonstrated that models optimized for safety often display exaggerated safety behaviors, such as a tendency to refrain from responding to certain requests as a precautionary measure. As such, a clear trade-off between the helpfulness and safety of these models has been documented in the literature. In this paper, we further investigate the effectiveness of safety measures by evaluating models on already mitigated biases. Using the case of Llama 2 as an example, we illustrate how LLMs’ safety responses can still encode harmful assumptions. To do so, we create a set of non-toxic prompts, which we then use to evaluate Llama models. Through our new taxonomy of LLMs responses to users, we observe that the safety/helpfulness trade-offs are more pronounced for certain demographic groups which can lead to quality-of-service harms for marginalized populations.

arxiv情報

著者 Khaoula Chehbouni,Megha Roshan,Emmanuel Ma,Futian Andrew Wei,Afaf Taik,Jackie CK Cheung,Golnoosh Farnadi
発行日 2024-07-05 15:40:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CY, cs.LG パーマリンク