要約
高レベルの AI 倫理原則の実用的な AI/ML システムへの運用化は進んでいますが、基礎となる AI 倫理の側面間の緊張を管理するには理論と実践のギャップがまだあります。
基本的なものから複雑なものまで、トレードオフを通じて緊張に対処するための 5 つのアプローチを取り上げます。
これらのアプローチは、考慮されるコンテキストの種類、範囲、コンテキストを測定する方法、および正当化の程度が異なります。
どのアプローチも、すべての組織、システム、アプリケーションに適切であるとは限りません。
これに対処するために、我々は、(i) 緊張の積極的な特定、(ii) 倫理的側面の優先順位付けと重み付け、(iii) トレードオフ決定の正当化と文書化から構成されるフレームワークを提案します。
提案されたフレームワークは、潜在的な規制要件に適した、バランスのとれた AI/ML システムの実装を促進することを目的としています。
要約(オリジナル)
While the operationalisation of high-level AI ethics principles into practical AI/ML systems has made progress, there is still a theory-practice gap in managing tensions between the underlying AI ethics aspects. We cover five approaches for addressing the tensions via trade-offs, ranging from rudimentary to complex. The approaches differ in the types of considered context, scope, methods for measuring contexts, and degree of justification. None of the approaches is likely to be appropriate for all organisations, systems, or applications. To address this, we propose a framework which consists of: (i) proactive identification of tensions, (ii) prioritisation and weighting of ethics aspects, (iii) justification and documentation of trade-off decisions. The proposed framework aims to facilitate the implementation of well-rounded AI/ML systems that are appropriate for potential regulatory requirements.
arxiv情報
著者 | Conrad Sanderson,Emma Schleiger,David Douglas,Petra Kuhnert,Qinghua Lu |
発行日 | 2024-12-24 12:25:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google