要約
人工知能 (AI) の急速な進歩により、ますます高度化する AI システムが壊滅的なリスクを引き起こす可能性について、専門家、政策立案者、世界のリーダーの間で懸念が高まっています。
多くのリスクが個別に詳しく説明されていますが、潜在的な危険を体系的に議論し、説明して、それらを軽減する取り組みに適切な情報を提供することが差し迫った必要性があります。
このペーパーでは、AI の壊滅的なリスクの主な原因の概要を 4 つのカテゴリに整理します。悪意のある使用。個人またはグループが意図的に AI を使用して危害を引き起こす。
AI 競争。競争環境では、関係者が安全でない AI を導入するか、AI に制御を譲ることを強いられます。
組織のリスク。人的要因と複雑なシステムがどのようにして壊滅的な事故の可能性を高めるかを強調します。
そして不正なAIについては、人間よりもはるかに知的なエージェントを制御することの本質的な難しさを説明しています。
リスクのカテゴリーごとに、特定の危険を説明し、具体的なストーリーを提示し、理想的なシナリオを想定し、これらの危険を軽減するための実践的な提案を提案します。
私たちの目標は、これらのリスクに対する包括的な理解を促進し、AI が安全な方法で開発および展開されるようにするための集団的かつ積極的な取り組みを促すことです。
最終的には、これにより、壊滅的な結果が生じる可能性を最小限に抑えながら、この強力なテクノロジーの利点を実現できるようになることを願っています。
要約(オリジナル)
Rapid advancements in artificial intelligence (AI) have sparked growing concerns among experts, policymakers, and world leaders regarding the potential for increasingly advanced AI systems to pose catastrophic risks. Although numerous risks have been detailed separately, there is a pressing need for a systematic discussion and illustration of the potential dangers to better inform efforts to mitigate them. This paper provides an overview of the main sources of catastrophic AI risks, which we organize into four categories: malicious use, in which individuals or groups intentionally use AIs to cause harm; AI race, in which competitive environments compel actors to deploy unsafe AIs or cede control to AIs; organizational risks, highlighting how human factors and complex systems can increase the chances of catastrophic accidents; and rogue AIs, describing the inherent difficulty in controlling agents far more intelligent than humans. For each category of risk, we describe specific hazards, present illustrative stories, envision ideal scenarios, and propose practical suggestions for mitigating these dangers. Our goal is to foster a comprehensive understanding of these risks and inspire collective and proactive efforts to ensure that AIs are developed and deployed in a safe manner. Ultimately, we hope this will allow us to realize the benefits of this powerful technology while minimizing the potential for catastrophic outcomes.
arxiv情報
著者 | Dan Hendrycks,Mantas Mazeika,Thomas Woodside |
発行日 | 2023-06-21 03:35:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google