要約
AI 開発コミュニティでは、ユーザーがアップロードしたモデルやトレーニング データに簡単にアクセスできるように、Hugging Face などのホスティング仲介業者をますます活用しています。
これらのモデル マーケットプレイスは、数十万のユーザーにとって技術的な導入の障壁を低くしますが、潜在的に有害で違法な方法で多数使用される可能性があります。
この記事では、コンテンツを「含む」ことができると同時に、オープンエンドのツールである AI システムが、これまでに見られた中で最も厄介なプラットフォーム ガバナンスの課題の 1 つをどのように提示するのかについて説明します。
私たちは、Hugging Face、GitHub、Civtai という 3 つの例示的なプラットフォームにわたるいくつかのインシデントのケーススタディを提供し、モデル マーケットプレイスがどのようにモデルをモデレートするかを調査します。
この分析に基づいて、ライセンス、アクセスと使用の制限、自動化されたコンテンツのモデレーション、オープン ポリシーの開発など、モデレーションの要求に対応するために業界が開発してきた重要な (それでも限定的な) 実践について概説します。
当面の政策課題はかなりの課題ですが、最後に、プラットフォームがリソースをより適切に動員して、注意深く、公平かつ適切な規制アクセスポイントとして機能する方法について、いくつかのアイデアを紹介します。
要約(オリジナル)
The AI development community is increasingly making use of hosting intermediaries such as Hugging Face provide easy access to user-uploaded models and training data. These model marketplaces lower technical deployment barriers for hundreds of thousands of users, yet can be used in numerous potentially harmful and illegal ways. In this article, we explain ways in which AI systems, which can both `contain’ content and be open-ended tools, present one of the trickiest platform governance challenges seen to date. We provide case studies of several incidents across three illustrative platforms — Hugging Face, GitHub and Civitai — to examine how model marketplaces moderate models. Building on this analysis, we outline important (and yet nevertheless limited) practices that industry has been developing to respond to moderation demands: licensing, access and use restrictions, automated content moderation, and open policy development. While the policy challenge at hand is a considerable one, we conclude with some ideas as to how platforms could better mobilize resources to act as a careful, fair, and proportionate regulatory access point.
arxiv情報
著者 | Robert Gorwa,Michael Veale |
発行日 | 2023-11-21 12:38:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google