An International Consortium for Evaluations of Societal-Scale Risks from Advanced AI

要約

高度なAIに向けた急速な進展と、フロンティアAIシステム(AI能力のフロンティアの境界を押し広げる高度なAIシステム)によるリスクを考えると、AIガバナンスと規制スキームの構築と実施は、優先順位付けと多額の投資に値する。しかし、現状は維持不可能であり、率直に言って危険である。規制のギャップは、AIラボが最小限の監視で研究、開発、展開活動を行うことを許している。これに対して、フロンティアAIシステムの開発・配備によるリスクを評価する方法として、フロンティアAIシステム評価が提案されている。しかし、萌芽的なAIリスク評価のエコシステムは、評価者の多様性の制限、労力の最適な配分、逆インセンティブなど、重要な調整課題に直面している。本稿では、AI開発者と第三者のAIリスク評価者の双方から構成される、AIリスク評価のための国際コンソーシアムという形での解決策を提案する。このようなコンソーシアムは、先進的AIによる社会規模のリスクを軽減するための国際的な取り組みにおいて、責任あるスケーリング政策の管理や評価に基づくリスク対応の調整など、重要な役割を果たすことができる。本稿では、現在の評価エコシステムとその欠点について議論し、先進的なAIリスク評価のための国際コンソーシアムを提案し、その実施に関する課題について議論し、過去の国際機関や国際的なAIガバナンス機関の既存の提案から学べる教訓について議論し、最後に、提案するコンソーシアムの設立を進めるための具体的なステップとして、(i)ステークホルダーからのフィードバック募集、(ii)追加調査の実施、(iii)ステークホルダーを対象としたワークショップの実施、(iv)フィードバックの分析と最終提案書の作成、(v)資金調達の募集、(vi)コンソーシアムの設立を提言する。

要約(オリジナル)

Given rapid progress toward advanced AI and risks from frontier AI systems (advanced AI systems pushing the boundaries of the AI capabilities frontier), the creation and implementation of AI governance and regulatory schemes deserves prioritization and substantial investment. However, the status quo is untenable and, frankly, dangerous. A regulatory gap has permitted AI labs to conduct research, development, and deployment activities with minimal oversight. In response, frontier AI system evaluations have been proposed as a way of assessing risks from the development and deployment of frontier AI systems. Yet, the budding AI risk evaluation ecosystem faces significant coordination challenges, such as a limited diversity of evaluators, suboptimal allocation of effort, and perverse incentives. This paper proposes a solution in the form of an international consortium for AI risk evaluations, comprising both AI developers and third-party AI risk evaluators. Such a consortium could play a critical role in international efforts to mitigate societal-scale risks from advanced AI, including in managing responsible scaling policies and coordinated evaluation-based risk response. In this paper, we discuss the current evaluation ecosystem and its shortcomings, propose an international consortium for advanced AI risk evaluations, discuss issues regarding its implementation, discuss lessons that can be learnt from previous international institutions and existing proposals for international AI governance institutions, and, finally, we recommend concrete steps to advance the establishment of the proposed consortium: (i) solicit feedback from stakeholders, (ii) conduct additional research, (iii) conduct a workshop(s) for stakeholders, (iv) analyze feedback and create final proposal, (v) solicit funding, and (vi) create a consortium.

arxiv情報

著者 Ross Gruetzemacher,Alan Chan,Kevin Frazier,Christy Manning,Štěpán Los,James Fox,José Hernández-Orallo,John Burden,Matija Franklin,Clíodhna Ní Ghuidhir,Mark Bailey,Daniel Eth,Toby Pilditch,Kyle Kilian
発行日 2023-11-06 18:52:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY パーマリンク