要約
現在、人工知能 (AI) における危害報告には、アルゴリズムの欠陥を開示して対処するための構造化されたプロセスが欠如しており、主にアドホックなアプローチに依存しています。
これは、ソフトウェア セキュリティにおいて確立された調整された脆弱性開示 (CVD) エコシステムとは明らかに対照的です。
AI の透明性とコラボレーションのためのフレームワークを確立するための世界的な取り組みが進行中ですが、機械学習 (ML) モデルによってもたらされる特有の課題には、専門的なアプローチが必要です。
このギャップに対処するために、ML と AI の問題の複雑さに合わせて調整された欠陥開示 (CFD) フレームワークの実装を提案します。
このペーパーでは、アドホックなレポートから新たな参加型監査手法まで、ML 開示慣行の進化をレビューし、それらをサイバーセキュリティ標準と比較します。
私たちのフレームワークには、拡張モデル カード、動的な範囲の拡張、独立した審査委員会、自動検証プロセスなどの革新的な機能が導入されています。
また、今後の CFD の実際のパイロットについても概説します。
私たちは、CFD が AI システムに対する国民の信頼を大幅に高める可能性があると主張します。
CFD は、組織とコミュニティの利益のバランスを取ることで、急速に進化する技術環境における AI の責任を向上させることを目指しています。
要約(オリジナル)
Harm reporting in Artificial Intelligence (AI) currently lacks a structured process for disclosing and addressing algorithmic flaws, relying largely on an ad-hoc approach. This contrasts sharply with the well-established Coordinated Vulnerability Disclosure (CVD) ecosystem in software security. While global efforts to establish frameworks for AI transparency and collaboration are underway, the unique challenges presented by machine learning (ML) models demand a specialized approach. To address this gap, we propose implementing a Coordinated Flaw Disclosure (CFD) framework tailored to the complexities of ML and AI issues. This paper reviews the evolution of ML disclosure practices, from ad hoc reporting to emerging participatory auditing methods, and compares them with cybersecurity norms. Our framework introduces innovations such as extended model cards, dynamic scope expansion, an independent adjudication panel, and an automated verification process. We also outline a forthcoming real-world pilot of CFD. We argue that CFD could significantly enhance public trust in AI systems. By balancing organizational and community interests, CFD aims to improve AI accountability in a rapidly evolving technological landscape.
arxiv情報
著者 | Sven Cattell,Avijit Ghosh,Lucie-Aimée Kaffee |
発行日 | 2024-07-26 13:45:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google