要約
拡散モデルと大規模言語モデルは最先端の生成モデルとして登場し、人間の生活のさまざまな側面に革命をもたらしました。
しかし、これらのモデルを実際に実装すると、固有のリスクも露呈し、その邪悪な側面が前面に押し出され、その信頼性に関する懸念が生じています。
このテーマに関する文献は豊富にありますが、大規模な生成モデルとその信頼性の交差点を特に掘り下げた包括的な調査はほとんど存在しないままです。
このギャップを埋めるために、このペーパーでは、1) プライバシー、2) セキュリティ、3) 公平性、4) 責任という 4 つの基本的な側面にわたって、これらのモデルに関連する長年の脅威と新たな脅威の両方を調査します。
調査結果に基づいて、大規模な生成モデルの信頼性を概説する広範なマップを作成します。
その後、大規模な生成モデルを備えた将来の安全なアプリケーションのための実践的な推奨事項と潜在的な研究の方向性を提供し、最終的にはモデルの信頼性を高め、社会全体に利益をもたらします。
要約(オリジナル)
Diffusion models and large language models have emerged as leading-edge generative models, revolutionizing various aspects of human life. However, the practical implementations of these models have also exposed inherent risks, bringing to the forefront their evil sides and sparking concerns regarding their trustworthiness. Despite the wealth of literature on this subject, a comprehensive survey specifically delving into the intersection of large-scale generative models and their trustworthiness remains largely absent. To bridge this gap, this paper investigates both the long-standing and emerging threats associated with these models across four fundamental dimensions: 1) privacy, 2) security, 3) fairness, and 4) responsibility. Based on the investigation results, we develop an extensive map outlining the trustworthiness of large generative models. After that, we provide practical recommendations and potential research directions for future secure applications equipped with large generative models, ultimately promoting the trustworthiness of the models and benefiting the society as a whole.
arxiv情報
著者 | Mingyuan Fan,Chengyu Wang,Cen Chen,Yang Liu,Jun Huang |
発行日 | 2023-12-08 01:05:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google