要約
多くの専門家は、AI システムは遅かれ早かれ、存続リスクを含む保険不可能なリスクを引き起こすと考えています。
これは、極めて判断が難しい問題を引き起こします。このような大惨事が発生した場合、事後的に責任を問われる当事者は、いたとしてもほとんどいません。
この文書では、政府が提供する AI 開発者向けの強制補償プログラムという新しい解決策を提案します。
このプログラムは、社会的に最適なレベルのケアを誘導するために、リスク価格の補償金を使用します。
リスク推定値は、補償対象の開発者を含む専門家を調査して決定されます。
ベイジアン真実血清メカニズムは、正直で努力的な反応を促すために採用されています。
代替手段と比較して、このアプローチはおそらくすべての個人情報をより効果的に活用し、料金を下げるためにどのようなリスクを軽減する必要があるかについて、補償対象の開発者に対してより明確なシグナルを提供します。
集めた手数料は、この公共財の最適な供給を誘導する資金マッチングメカニズム (Quadratic Financing) を利用して、安全性研究開発者が必要とする資金を援助するために使用することが推奨されます。
Quadratic Financingの下では、安全性研究プロジェクトは開発者からの民間の寄付を求めて競争し、それぞれに公的資金でどれだけ補われるかを通知することになる。
要約(オリジナル)
Many experts believe that AI systems will sooner or later pose uninsurable risks, including existential risks. This creates an extreme judgment-proof problem: few if any parties can be held accountable ex post in the event of such a catastrophe. This paper proposes a novel solution: a government-provided, mandatory indemnification program for AI developers. The program uses risk-priced indemnity fees to induce socially optimal levels of care. Risk-estimates are determined by surveying experts, including indemnified developers. The Bayesian Truth Serum mechanism is employed to incent honest and effortful responses. Compared to alternatives, this approach arguably better leverages all private information, and provides a clearer signal to indemnified developers regarding what risks they must mitigate to lower their fees. It’s recommended that collected fees be used to help fund the safety research developers need, employing a fund matching mechanism (Quadratic Financing) to induce an optimal supply of this public good. Under Quadratic Financing, safety research projects would compete for private contributions from developers, signaling how much each is to be supplemented with public funds.
arxiv情報
著者 | Cristian Trout |
発行日 | 2024-09-10 17:41:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google