要約
AIの急速な進歩は、国家安全保障を再構築し始めています。
AIの発展を不安定にすると、権力のバランスが破裂し、偉大な紛争の可能性が高まりますが、有能なAIハッカーとウイルス科医の広範な増殖は、不正行為者が災害を引き起こすための障壁を減らすことができます。
Superintelligence- AIは、ほぼすべての認知タスクで人間よりもはるかに優れていますが、AIの研究者は現在予想されています。
国がかつて生存を確保するための核戦略を開発したように、私たちは今、新しい変革的変化の期間をナビゲートするために一貫したスーパーインテリジェンス戦略が必要です。
相互保証されたAI誤動作(MAIM)の概念を紹介します。核となるAIの支配に対する州の積極的な入札がライバルによる予防妨害で満たされる核相互保証破壊(MAD)に似た抑止体制。
不安定なAIプロジェクトを妨害する比較的容易さを考えると、秘密のサイバー攻撃からデータセンターの潜在的な運動ストライキまでの介入を通じて、不安定なAIプロジェクトを妨害することを考えると、Maimは既にAIの超大国が自分自身を見つけます。
彼らの手からの能力。
まとめると、抑止、不拡散、競争力の3部構成の枠組みは、今後数年間の総能力に対する強力な戦略の概要を示しています。
要約(オリジナル)
Rapid advances in AI are beginning to reshape national security. Destabilizing AI developments could rupture the balance of power and raise the odds of great-power conflict, while widespread proliferation of capable AI hackers and virologists would lower barriers for rogue actors to cause catastrophe. Superintelligence — AI vastly better than humans at nearly all cognitive tasks — is now anticipated by AI researchers. Just as nations once developed nuclear strategies to secure their survival, we now need a coherent superintelligence strategy to navigate a new period of transformative change. We introduce the concept of Mutual Assured AI Malfunction (MAIM): a deterrence regime resembling nuclear mutual assured destruction (MAD) where any state’s aggressive bid for unilateral AI dominance is met with preventive sabotage by rivals. Given the relative ease of sabotaging a destabilizing AI project — through interventions ranging from covert cyberattacks to potential kinetic strikes on datacenters — MAIM already describes the strategic picture AI superpowers find themselves in. Alongside this, states can increase their competitiveness by bolstering their economies and militaries through AI, and they can engage in nonproliferation to rogue actors to keep weaponizable AI capabilities out of their hands. Taken together, the three-part framework of deterrence, nonproliferation, and competitiveness outlines a robust strategy to superintelligence in the years ahead.
arxiv情報
著者 | Dan Hendrycks,Eric Schmidt,Alexandr Wang |
発行日 | 2025-03-07 17:53:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google