On the Trustworthiness Landscape of State-of-the-art Generative Models: A Comprehensive Survey

要約

拡散モデルや大規模言語モデルは、最先端の生成モデルとして登場し、人間生活の様々な側面に革命的な影響を与えた。しかし、これらのモデルを実用化することで、内在するリスクも露呈し、その二面性が浮き彫りにされ、信頼性への懸念が高まっている。このテーマに関する文献は豊富にあるにもかかわらず、大規模生成モデルとその信頼性との交差を特に掘り下げた包括的な調査は、ほとんど存在しないままである。このギャップを埋めるために、本稿では、プライバシー、セキュリティ、公平性、責任という4つの基本的な次元にわたって、これらのモデルに関連する長年の脅威と新たな脅威の両方を調査する。このようにして、これらのモデルの信頼性を概説する広範なマップを構築するとともに、実用的な勧告を提供し、将来の方向性を明らかにする。これらの取り組みは、これらのモデルの信頼できる展開を促進し、最終的に社会全体に利益をもたらすために極めて重要である。

要約(オリジナル)

Diffusion models and large language models have emerged as leading-edge generative models and have sparked a revolutionary impact on various aspects of human life. However, the practical implementation of these models has also exposed inherent risks, highlighting their dual nature and raising concerns regarding their trustworthiness. Despite the abundance of literature on this subject, a comprehensive survey specifically delving into the intersection of large-scale generative models and their trustworthiness remains largely absent. To bridge this gap, This paper investigates both the long-standing and emerging threats associated with these models across four fundamental dimensions: privacy, security, fairness, and responsibility. In this way, we construct an extensive map outlining the trustworthiness of these models, while also providing practical recommendations and identifying future directions. These efforts are crucial for promoting the trustworthy deployment of these models, ultimately benefiting society as a whole.

arxiv情報

著者 Mingyuan Fan,Cen Chen,Chengyu Wang,Jun Huang
発行日 2023-08-03 03:23:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV, cs.LG パーマリンク