Regulating ChatGPT and other Large Generative AI Models

要約

ChatGPT、GPT-4、Stable Diffusionなどの大規模生成AIモデル(LGAIM)は、コミュニケーション、イラストレーション、創作の方法を急速に変化させている。しかし、EUをはじめとするAI規制は、主に従来のAIモデルを対象としており、LGAIMは対象外となっています。本稿では、信頼できるAI規制に関する現在の議論の中で、これらの新しい生成モデルを位置づけ、法律がどのように彼らの能力に合わせることができるかを問うことにする。技術的な基礎を固めた後、本稿の法的部分は4つのステップで進み、(1)直接規制、(2)データ保護、(3)コンテンツモデレーション、(4)政策提言をカバーする。LGAIMの開発者、導入者、専門家と非専門家のユーザー、LGAIM出力の受信者を区別することにより、LGAIM設定におけるAIのバリューチェーンを捉えるための新しい用語を提案しています。我々は、バリューチェーンに沿ったこれらの異なるアクターに規制義務を調整し、LGAIMが信頼され、社会全体の利益のために展開されることを保証するための戦略を提案する。AI法やその他の直接的な規制におけるルールは、事前に訓練されたモデルの特異性にマッチしていなければならない。本稿では、LGAIMに関する3層の義務(すべてのLGAIMに対する最低基準、高リスクのユースケースに対する高リスク義務、AIバリューチェーンに沿った協力)を主張する。一般に、規制は、事前学習済みモデルそのものではなく、具体的な高リスクのアプリケーションに焦点を当てるべきであり、(i)透明性に関する義務、(ii)リスク管理、を含むべきである。ただし、無差別規定(iii)はLGAIM開発者に適用される可能性がある。最後に、(iv) DSA のコンテンツモデレーション規則の中核を、LGAIM を対象として拡大する必要がある。これには、通知とアクションのメカニズム、および信頼できるフラッガーが含まれる。すべての領域において、規制当局と法律家は、ChatGPTらのダイナミクスに追従するために迅速に行動する必要があります。

要約(オリジナル)

Large generative AI models (LGAIMs), such as ChatGPT, GPT-4 or Stable Diffusion, are rapidly transforming the way we communicate, illustrate, and create. However, AI regulation, in the EU and beyond, has primarily focused on conventional AI models, not LGAIMs. This paper will situate these new generative models in the current debate on trustworthy AI regulation, and ask how the law can be tailored to their capabilities. After laying technical foundations, the legal part of the paper proceeds in four steps, covering (1) direct regulation, (2) data protection, (3) content moderation, and (4) policy proposals. It suggests a novel terminology to capture the AI value chain in LGAIM settings by differentiating between LGAIM developers, deployers, professional and non-professional users, as well as recipients of LGAIM output. We tailor regulatory duties to these different actors along the value chain and suggest strategies to ensure that LGAIMs are trustworthy and deployed for the benefit of society at large. Rules in the AI Act and other direct regulation must match the specificities of pre-trained models. The paper argues for three layers of obligations concerning LGAIMs (minimum standards for all LGAIMs; high-risk obligations for high-risk use cases; collaborations along the AI value chain). In general, regulation should focus on concrete high-risk applications, and not the pre-trained model itself, and should include (i) obligations regarding transparency and (ii) risk management. Non-discrimination provisions (iii) may, however, apply to LGAIM developers. Lastly, (iv) the core of the DSA content moderation rules should be expanded to cover LGAIMs. This includes notice and action mechanisms, and trusted flaggers. In all areas, regulators and lawmakers need to act fast to keep track with the dynamics of ChatGPT et al.

arxiv情報

著者 Philipp Hacker,Andreas Engel,Marco Mauer
発行日 2023-05-12 11:35:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, I.2 パーマリンク