要約
産業界および学界にわたる大規模言語モデル (LLM) の開発と配布の最近の急速な増加に拍車がかかり、最近の研究の多くは、潜在的な犯罪行為の状況を含む、安全性およびセキュリティ関連の脅威と LLM の脆弱性に注目を集めています。
。
具体的には、LLM が詐欺、なりすまし、マルウェアの生成に悪用される可能性があることがわかっています。
一方、他の著者は AI の調整というより一般的な問題を検討しています。
開発者も実務者も同様に、このようなモデルのセキュリティ関連の問題を認識することが重要です。
このペーパーでは、LLM から生じる脅威と脆弱性を特定し、軽減するための既存の(主に科学的な)取り組みの概要を説明します。
我々は、LLM の生成機能によって引き起こされる脅威、そのような脅威に対処することを目的とした防止策、および不完全な防止策から生じる脆弱性の間の関係を説明する分類法を提示します。
私たちは、このようなセキュリティ上の懸念を考慮した LLM の限界について、経験豊富な開発者とそのようなテクノロジの新規ユーザーの両方の意識を高めたいと考えています。
要約(オリジナル)
Spurred by the recent rapid increase in the development and distribution of large language models (LLMs) across industry and academia, much recent work has drawn attention to safety- and security-related threats and vulnerabilities of LLMs, including in the context of potentially criminal activities. Specifically, it has been shown that LLMs can be misused for fraud, impersonation, and the generation of malware; while other authors have considered the more general problem of AI alignment. It is important that developers and practitioners alike are aware of security-related problems with such models. In this paper, we provide an overview of existing – predominantly scientific – efforts on identifying and mitigating threats and vulnerabilities arising from LLMs. We present a taxonomy describing the relationship between threats caused by the generative capabilities of LLMs, prevention measures intended to address such threats, and vulnerabilities arising from imperfect prevention measures. With our work, we hope to raise awareness of the limitations of LLMs in light of such security concerns, among both experienced developers and novel users of such technologies.
arxiv情報
著者 | Maximilian Mozes,Xuanli He,Bennett Kleinberg,Lewis D. Griffin |
発行日 | 2023-08-24 14:45:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google