Two Types of AI Existential Risk: Decisive and Accumulative

要約

AI による生存リスク (X リスク) に関する従来の議論は、高度な AI システムによって引き起こされる突然の悲惨な出来事、特に人間レベルの知能を達成または超える可能性のある出来事に焦点を当てているのが一般的です。
これらの出来事は、人類の絶滅につながるか、人類の文明を回復不能な点まで取り返しのつかないほど破壊するかのいずれかにつながる深刻な結果をもたらします。
しかし、この議論は、AI の X リスクが、一連の小規模だが相互に関連した混乱を通じて段階的に顕在化し、時間の経過とともに徐々に重大なしきい値を超えるという深刻な可能性を無視していることがよくあります。
本稿では、従来の「決定的AI xリスク仮説」と「累積的AI xリスク仮説」を対比します。
前者は、制御不能な超知能のようなシナリオを特徴とする、明白なAI乗っ取り経路を想定しているのに対し、後者は、実存にかかわる大惨事への別の因果経路を示唆している。
これには、深刻な脆弱性や経済的および政治的構造の体系的な浸食など、AI によって引き起こされる重大な脅威が徐々に蓄積されることが含まれます。
累積仮説は、段階的な AI リスクがゆっくりと収束し、引き金となるイベントが不可逆的な崩壊を引き起こすまで社会の回復力を損なうという、ゆでガエルのシナリオを示唆しています。
この論文では、システム分析を通じて、これら 2 つの仮説を区別する明確な仮定を検証します。
そして、蓄積された見解によって、AI リスクに関する一見相容れない見解を調和させることができると主張されています。
これらの因果経路(決定的な経路と蓄積的な経路)を区別することの、AI のガバナンスおよび長期的な AI の安全性への影響について議論します。

要約(オリジナル)

The conventional discourse on existential risks (x-risks) from AI typically focuses on abrupt, dire events caused by advanced AI systems, particularly those that might achieve or surpass human-level intelligence. These events have severe consequences that either lead to human extinction or irreversibly cripple human civilization to a point beyond recovery. This discourse, however, often neglects the serious possibility of AI x-risks manifesting incrementally through a series of smaller yet interconnected disruptions, gradually crossing critical thresholds over time. This paper contrasts the conventional ‘decisive AI x-risk hypothesis’ with an ‘accumulative AI x-risk hypothesis.’ While the former envisions an overt AI takeover pathway, characterized by scenarios like uncontrollable superintelligence, the latter suggests a different causal pathway to existential catastrophes. This involves a gradual accumulation of critical AI-induced threats such as severe vulnerabilities and systemic erosion of economic and political structures. The accumulative hypothesis suggests a boiling frog scenario where incremental AI risks slowly converge, undermining societal resilience until a triggering event results in irreversible collapse. Through systems analysis, this paper examines the distinct assumptions differentiating these two hypotheses. It is then argued that the accumulative view can reconcile seemingly incompatible perspectives on AI risks. The implications of differentiating between these causal pathways — the decisive and the accumulative — for the governance of AI as well as long-term AI safety are discussed.

arxiv情報

著者 Atoosa Kasirzadeh
発行日 2025-01-17 16:35:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク