A Survey on Responsible Generative AI: What to Generate and What Not

要約

近年、大規模言語モデルやテキスト画像モデルのような生成AI(GenAI)は、様々な領域で大きな注目を集めている。しかし、これらのモデルによるコンテンツの責任ある生成を保証することは、実世界での適用にとって極めて重要である。これは興味深い問題を提起している:責任あるGenAIは何を生成すべきで、何を生成すべきでないのか?この問いに答えるために、本稿では、テキストとビジュアルの両方の生成モデルの実用的な責任要件を調査し、5つの重要な考慮事項を概説する:真実のコンテンツを生成すること、有害なコンテンツを避けること、有害な指示を拒否すること、学習データに関連するコンテンツを漏らさないこと、生成されたコンテンツを確実に識別できるようにすること。具体的には、これらの要件に対処するための最近の進歩と課題をレビューする。加えて、ヘルスケア、教育、金融、人工知能全般の領域にわたる責任あるGenAIの重要性を議論し、強調する。テキストとビジュアルの両方の生成モデルに関する統一された視点を通して、本稿は、実用的な安全関連の問題に対する洞察を提供し、責任あるGenAIを構築する上でコミュニティにさらなる利益をもたらすことを目指す。

要約(オリジナル)

In recent years, generative AI (GenAI), like large language models and text-to-image models, has received significant attention across various domains. However, ensuring the responsible generation of content by these models is crucial for their real-world applicability. This raises an interesting question: What should responsible GenAI generate, and what should it not? To answer the question, this paper investigates the practical responsible requirements of both textual and visual generative models, outlining five key considerations: generating truthful content, avoiding toxic content, refusing harmful instruction, leaking no training data-related content, and ensuring generated content identifiable. Specifically, we review recent advancements and challenges in addressing these requirements. Besides, we discuss and emphasize the importance of responsible GenAI across healthcare, education, finance, and artificial general intelligence domains. Through a unified perspective on both textual and visual generative models, this paper aims to provide insights into practical safety-related issues and further benefit the community in building responsible GenAI.

arxiv情報

著者 Jindong Gu
発行日 2024-09-03 16:23:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CV, cs.CY パーマリンク