Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI

要約

AI システムがより自律的かつ高機能になるにつれ、専門家は、AI システムが壊滅的な損失を引き起こす可能性があると警告しています。
この論文は、原子力業界が設定した成功した前例を踏まえ、フロンティア AI モデルの開発者には、重大な AI 発生(CAIO)、つまりその原因となる、または容易にその可能性がある事象に起因する損害について、限定的かつ厳格かつ排他的な第三者責任を割り当てられるべきであると主張しています。
壊滅的な損失を引き起こしました。
CAIO の責任に対する強制保険は、開発者の判断不能性を克服し、勝者の呪いの力学を緩和し、保険会社の準規制能力を活用するために推奨されます。
同様の原子力発電の状況からの理論的議論と観察に基づいて、保険会社は、因果関係リスクのモデル化、監視、より厳格な規制を求めるロビー活動、および原子力によるヘビーテールリスクに対する保険の状況における損失防止ガイダンスの提供を組み合わせて取り組むことが期待されています。
あい。
規制の代替ではありませんが、明確な責任の割り当てと強制保険は、リソースをリスクモデリングと安全設計に効率的に割り当てるのに役立ち、将来の規制の取り組みを促進します。

要約(オリジナル)

As AI systems become more autonomous and capable, experts warn of them potentially causing catastrophic losses. Drawing on the successful precedent set by the nuclear power industry, this paper argues that developers of frontier AI models should be assigned limited, strict, and exclusive third party liability for harms resulting from Critical AI Occurrences (CAIOs) – events that cause or easily could have caused catastrophic losses. Mandatory insurance for CAIO liability is recommended to overcome developers’ judgment-proofness, mitigate winner’s curse dynamics, and leverage insurers’ quasi-regulatory abilities. Based on theoretical arguments and observations from the analogous nuclear power context, insurers are expected to engage in a mix of causal risk-modeling, monitoring, lobbying for stricter regulation, and providing loss prevention guidance in the context of insuring against heavy-tail risks from AI. While not a substitute for regulation, clear liability assignment and mandatory insurance can help efficiently allocate resources to risk-modeling and safe design, facilitating future regulatory efforts.

arxiv情報

著者 Cristian Trout
発行日 2024-09-10 17:41:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク