要約
この論文は、高度な人工知能 (AI) による存続リスクを軽減するための多国籍汎用人工知能コンソーシアム (MAGIC) を提案しています。
MAGICは、先進的なAIの開発を許可された世界で唯一の機関となり、署名メンバーによる他のすべての先進的なAI開発の世界的な一時停止を通じて強制されることになる。
MAGIC は排他的で、安全性を重視し、安全性が高く、加盟国が共同で支援し、その恩恵は署名者間で公平に分配されます。
MAGIC を使用すると、汎用システムの不整合、不正、ブレークアウト、または暴走の結果の可能性を大幅に低減しながら、狭い AI モデルの繁栄が可能になります。
我々は、一時停止実施の政治的実現可能性や、大規模なAGI訓練実施の禁止を強制するために必要な特定の立法戦略や規則については言及していない。
その代わりに、私たちは、MAGIC がグローバルなガバナンス体制として、高度な AI の長期的かつ安全な規制の基礎を築くことができるという、前向きな将来像を 1 つ提案します。
要約(オリジナル)
This paper proposes a Multinational Artificial General Intelligence Consortium (MAGIC) to mitigate existential risks from advanced artificial intelligence (AI). MAGIC would be the only institution in the world permitted to develop advanced AI, enforced through a global moratorium by its signatory members on all other advanced AI development. MAGIC would be exclusive, safety-focused, highly secure, and collectively supported by member states, with benefits distributed equitably among signatories. MAGIC would allow narrow AI models to flourish while significantly reducing the possibility of misaligned, rogue, breakout, or runaway outcomes of general-purpose systems. We do not address the political feasibility of implementing a moratorium or address the specific legislative strategies and rules needed to enforce a ban on high-capacity AGI training runs. Instead, we propose one positive vision of the future, where MAGIC, as a global governance regime, can lay the groundwork for long-term, safe regulation of advanced AI.
arxiv情報
著者 | Jason Hausenloy,Andrea Miotti,Claire Dennis |
発行日 | 2023-10-13 16:12:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google