Actionable Guidance for High-Consequence AI Risk Management: Towards Standards Addressing AI Catastrophic Risks

要約

人工知能 (AI) システムは、多くの有益な機能を提供できますが、有害事象のリスクも提供します。
一部の AI システムは、社会規模で非常に高い結果または壊滅的な結果をもたらすイベントのリスクを提示する可能性があります。
米国国立標準技術研究所 (NIST) は、AI 開発者などのための AI リスク評価と管理に関する自主的なガイダンスとして、NIST 人工知能リスク管理フレームワーク (AI RMF) を開発しています。
壊滅的な結果を伴うイベントのリスクに対処するために、NIST は、高レベルの原則から実行可能なリスク管理ガイダンスに変換する必要があることを示しました。
このドキュメントでは、NIST for AI RMF バージョン 1.0 (2023 年 1 月にリリース) または AI
RMF ユーザー、または必要に応じてその他の AI リスク管理ガイダンスおよび標準用。
また、推奨事項の方法論も提供します。
AI RMF 1.0 に関する実行可能なガイダンスの推奨事項を提供します。
リスク評価と影響評価の範囲内に壊滅的リスク要因を含める。
人権侵害を特定し、軽減する。
壊滅的な危険因子を含む AI の危険因子に関する情報を報告します。
さらに、AI RMF の以降のバージョンまたは補足出版物のロードマップについて、追加の問題に関する推奨事項を提供します。
これらには以下が含まれます: AI RMF プロファイルに、最先端のますます多目的または汎用 AI のための補足ガイダンスを提供すること。
私たちは、この作業が具体的なリスク管理慣行の貢献となり、破滅的なリスクとそれに関連する AI 標準の問題に対処する方法について建設的な対話を促進することを目指しています。

要約(オリジナル)

Artificial intelligence (AI) systems can provide many beneficial capabilities but also risks of adverse events. Some AI systems could present risks of events with very high or catastrophic consequences at societal scale. The US National Institute of Standards and Technology (NIST) has been developing the NIST Artificial Intelligence Risk Management Framework (AI RMF) as voluntary guidance on AI risk assessment and management for AI developers and others. For addressing risks of events with catastrophic consequences, NIST indicated a need to translate from high level principles to actionable risk management guidance. In this document, we provide detailed actionable-guidance recommendations focused on identifying and managing risks of events with very high or catastrophic consequences, intended as a risk management practices resource for NIST for AI RMF version 1.0 (released in January 2023), or for AI RMF users, or for other AI risk management guidance and standards as appropriate. We also provide our methodology for our recommendations. We provide actionable-guidance recommendations for AI RMF 1.0 on: identifying risks from potential unintended uses and misuses of AI systems; including catastrophic-risk factors within the scope of risk assessments and impact assessments; identifying and mitigating human rights harms; and reporting information on AI risk factors including catastrophic-risk factors. In addition, we provide recommendations on additional issues for a roadmap for later versions of the AI RMF or supplementary publications. These include: providing an AI RMF Profile with supplementary guidance for cutting-edge increasingly multi-purpose or general-purpose AI. We aim for this work to be a concrete risk-management practices contribution, and to stimulate constructive dialogue on how to address catastrophic risks and associated issues in AI standards.

arxiv情報

著者 Anthony M. Barrett,Dan Hendrycks,Jessica Newman,Brandie Nonnecke
発行日 2023-02-23 18:54:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク