要約
AIのリーダーたちによる急速な発見を背景に、各国政府は、新しいAI能力の増加ペースに見合った規制を設計する方法を検討する必要があります。AIのための規制市場」は、適応性を念頭に置いて設計された提案である。政府は、AI企業が達成すべき成果ベースの目標を設定し、民間規制当局の市場からサービスを購入することによって、それを示すことができるようにする。私たちは進化ゲーム理論モデルを用いて、無謀な行動を抑止するAIシステムのための規制市場を構築する上で政府が果たすべき役割を探る。我々は、規制市場がこの目標を達成するのを妨げるようなインセンティブに躓くことは、驚くほど簡単であると警告している。このような「バウンティ・インセンティブ」は、安全でない行動を捕らえた民間の規制当局にのみ報酬を与えるものです。私たちは、AI企業が、規制当局がどれだけの労力を費やしたかによって自分たちの行動を調整することを学ぶ可能性が高く、規制当局のイノベーションを妨げると主張する。その代わりに、私たちは、政府が規制当局に常に報酬を与えることを推奨します。ただし、規制当局が本来検出すべき安全でない行動を検出できなかったと判断した場合は除きます。このような「ビジラント・インセンティブ」は、民間の規制当局が最先端のAIシステムを評価するための革新的な方法を見つけることを促すことができる。
要約(オリジナル)
In the context of rapid discoveries by leaders in AI, governments must consider how to design regulation that matches the increasing pace of new AI capabilities. Regulatory Markets for AI is a proposal designed with adaptability in mind. It involves governments setting outcome-based targets for AI companies to achieve, which they can show by purchasing services from a market of private regulators. We use an evolutionary game theory model to explore the role governments can play in building a Regulatory Market for AI systems that deters reckless behaviour. We warn that it is alarmingly easy to stumble on incentives which would prevent Regulatory Markets from achieving this goal. These ‘Bounty Incentives’ only reward private regulators for catching unsafe behaviour. We argue that AI companies will likely learn to tailor their behaviour to how much effort regulators invest, discouraging regulators from innovating. Instead, we recommend that governments always reward regulators, except when they find that those regulators failed to detect unsafe behaviour that they should have. These ‘Vigilant Incentives’ could encourage private regulators to find innovative ways to evaluate cutting-edge AI systems.
arxiv情報
著者 | Paolo Bova,Alessandro Di Stefano,The Anh Han |
発行日 | 2023-03-06 14:42:05+00:00 |
arxivサイト | arxiv_id(pdf) |