A Case for AI Safety via Law

要約

人工知能(AI)システムを人間の価値観に沿った安全なものにする方法は、未解決の研究課題である。提案されている解決策は、不確実な状況での人間の介入に頼ること、訓練や観察を通じて人間の価値観や意図を学習すること、オフスイッチを提供すること、隔離やシミュレーション環境を実装すること、より多くの知識と考える時間があれば人間が何を望むかを推定すること、といった傾向がある。アイザック・アシモフに触発されたような法律に基づくアプローチは、あまり評価されていない。本稿では、効果的な法制度がAIの安全性に取り組む最善の方法であることを主張する。法律とは、特定のドメイン/コンテクストにおいて特定のエージェントに適用される禁止事項や規定事項を成文化したあらゆるルールと定義され、そのようなルールを制定、管理、執行、訴訟するためのプロセスを含む。

要約(オリジナル)

How to make artificial intelligence (AI) systems safe and aligned with human values is an open research question. Proposed solutions tend toward relying on human intervention in uncertain situations, learning human values and intentions through training or observation, providing off-switches, implementing isolation or simulation environments, or extrapolating what people would want if they had more knowledge and more time to think. Law-based approaches–such as inspired by Isaac Asimov–have not been well regarded. This paper makes a case that effective legal systems are the best way to address AI safety. Law is defined as any rules that codify prohibitions and prescriptions applicable to particular agents in specified domains/contexts and includes processes for enacting, managing, enforcing, and litigating such rules.

arxiv情報

著者 Jeffrey W. Johnston
発行日 2023-10-03 16:37:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY パーマリンク