要約
タイトル:「責任あるAIの実現:倫理的側面の矛盾とトレードオフ」
要約:
– 人工知能(AI)や機械学習(ML)システムの誤用や悪用に対する懸念を和らげるために、多くの責任あるAIに関する倫理原則が提案されている。
– これらの倫理原則の基盤となる側面には、プライバシー、正確性、公平性、堅牢性、説明可能性、透明性が含まれる。
– ただし、これらの側面には相互に矛盾する可能性があり、原則に従おうとするAI/ML開発者にとって困難を引き起こすことがある。例えば、AI/MLシステムの正確性が向上すると、説明可能性が低下する可能性がある。
– このような原則を実践に落とし込むための取り組みの一環として、本研究では、10の注目すべき矛盾、トレードオフ、その他の相互作用をまとめて議論している。
– 我々は主に両面の相互作用に焦点を当て、多様な文献でサポートされたものを引用している。このカタログは、倫理原則の側面間の相互作用の可能性について認識を高めるのに役立ち、AI/MLシステムの設計者や開発者による良質な判断を促進することができる。
要約(オリジナル)
Many sets of ethics principles for responsible AI have been proposed to allay concerns about misuse and abuse of AI/ML systems. The underlying aspects of such sets of principles include privacy, accuracy, fairness, robustness, explainability, and transparency. However, there are potential tensions between these aspects that pose difficulties for AI/ML developers seeking to follow these principles. For example, increasing the accuracy of an AI/ML system may reduce its explainability. As part of the ongoing effort to operationalise the principles into practice, in this work we compile and discuss a catalogue of 10 notable tensions, trade-offs and other interactions between the underlying aspects. We primarily focus on two-sided interactions, drawing on support spread across a diverse literature. This catalogue can be helpful in raising awareness of the possible interactions between aspects of ethics principles, as well as facilitating well-supported judgements by the designers and developers of AI/ML systems.
arxiv情報
著者 | Conrad Sanderson,David Douglas,Qinghua Lu |
発行日 | 2023-04-17 13:43:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI