Societal Adaptation to Advanced AI

要約

高度な AI システムによるリスクを管理するための既存の戦略は、どの AI システムが開発され、どのように拡散するかに影響を与えることに焦点を当てていることがよくあります。
しかし、高度な AI の開発者の数が増えるにつれて、このアプローチは実現可能性が低くなり、有益なユースケースだけでなく有害なユースケースも妨げられます。
これに応じて、私たちは補完的なアプローチ、つまり高度な AI への社会の適応を高めること、つまり、特定の AI 機能の一定レベルの普及によって予想される悪影響を軽減することを強く求めます。
選挙操作、サイバーテロ、AI 意思決定者の制御喪失などの例を用いて、AI システムの潜在的に有害な使用を回避、防御、修復する適応的介入を特定するのに役立つ概念的なフレームワークを紹介します。
社会が AI に適応するために実行できる 3 段階のサイクルについて説明します。
このサイクルを実行する社会の能力を高めることで、高度な AI に対する社会の回復力が高まります。
最後に、政府、業界、サードパーティに対する具体的な推奨事項を示します。

要約(オリジナル)

Existing strategies for managing risks from advanced AI systems often focus on affecting what AI systems are developed and how they diffuse. However, this approach becomes less feasible as the number of developers of advanced AI grows, and impedes beneficial use-cases as well as harmful ones. In response, we urge a complementary approach: increasing societal adaptation to advanced AI, that is, reducing the expected negative impacts from a given level of diffusion of a given AI capability. We introduce a conceptual framework which helps identify adaptive interventions that avoid, defend against and remedy potentially harmful uses of AI systems, illustrated with examples in election manipulation, cyberterrorism, and loss of control to AI decision-makers. We discuss a three-step cycle that society can implement to adapt to AI. Increasing society’s ability to implement this cycle builds its resilience to advanced AI. We conclude with concrete recommendations for governments, industry, and third-parties.

arxiv情報

著者 Jamie Bernardi,Gabriel Mukobi,Hilary Greaves,Lennart Heim,Markus Anderljung
発行日 2024-05-16 17:52:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC パーマリンク