On the Trustworthiness Landscape of State-of-the-art Generative Models: A Comprehensive Survey

要約

拡散モデルと大規模言語モデルは最先端の生成モデルとして登場し、人間の生活のさまざまな側面に革命的な影響を引き起こしました。
しかし、これらのモデルを実際に導入すると、固有のリスクも明らかになり、その二重の性質が浮き彫りになり、その信頼性に関する懸念が生じています。
このテーマに関する文献は豊富にありますが、大規模な生成モデルとその信頼性の交差点を特に掘り下げた包括的な調査はほとんど存在しないままです。
このギャップを埋めるために、このペーパーでは、プライバシー、セキュリティ、公平性、責任という 4 つの基本的な側面にわたって、これらのモデルに関連する長年の脅威と新たな脅威の両方を調査します。
このようにして、これらのモデルの信頼性を概説する広範なマップを構築すると同時に、実用的な推奨事項を提供し、将来の方向性を特定します。
これらの取り組みは、これらのモデルの信頼できる展開を促進し、最終的には社会全体に利益をもたらすために重要です。

要約(オリジナル)

Diffusion models and large language models have emerged as leading-edge generative models and have sparked a revolutionary impact on various aspects of human life. However, the practical implementation of these models has also exposed inherent risks, highlighting their dual nature and raising concerns regarding their trustworthiness. Despite the abundance of literature on this subject, a comprehensive survey specifically delving into the intersection of large-scale generative models and their trustworthiness remains largely absent. To bridge this gap, This paper investigates both the long-standing and emerging threats associated with these models across four fundamental dimensions: privacy, security, fairness, and responsibility. In this way, we construct an extensive map outlining the trustworthiness of these models, while also providing practical recommendations and identifying future directions. These efforts are crucial for promoting the trustworthy deployment of these models, ultimately benefiting society as a whole.

arxiv情報

著者 Mingyuan Fan,Cen Chen,Chengyu Wang,Jun Huang
発行日 2023-08-23 03:28:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV, cs.LG パーマリンク