On the meaning of uncertainty for ethical AI: philosophy and practice

要約

データサイエンティスト、統計学者、モデラーが開発する AI システムに対して責任を負うべきかどうか、またどのように責任を負うべきかについては、特に AI システムの複雑さと、データ分析への導入から生じる競合する主張の比較と統合の難しさを考慮すると、依然として物議を醸し、激しく議論されているトピックです。
この論文は、AI システムの開発を支える統計的基礎と、その結果がどのように解釈され、それに基づいて行動されるべきかを決定する方法を明示的に認識することにより、AI システムを使用した意思決定の不透明性を減らし説明責任を高めることで、この問題に対処することを提案します。
ユーザーによる。
これにより、(1) フィードバックに対するモデルの応答性、(2) 出力の不確実性の質と意味、(3) 評価に対するモデルの透明性が向上します。
このアプローチを例示するために、事後信念評価を拡張して、複雑で競合する AI 構造から信念の所有権へのルートを提供します。
私たちは、これが数学的推論に倫理的考慮事項を導入し、統計的実践に倫理的な AI を実装するための重要な方法であると主張します。
これらのアイデアを、2021 年 12 月中の新型コロナウイルス感染症 (COVID-19) のオミクロン変異種の蔓延について英国政府に助言するために使用された競合モデルのコンテキスト内で実証します。

要約(オリジナル)

Whether and how data scientists, statisticians and modellers should be accountable for the AI systems they develop remains a controversial and highly debated topic, especially given the complexity of AI systems and the difficulties in comparing and synthesising competing claims arising from their deployment for data analysis. This paper proposes to address this issue by decreasing the opacity and heightening the accountability of decision making using AI systems, through the explicit acknowledgement of the statistical foundations that underpin their development and the ways in which these dictate how their results should be interpreted and acted upon by users. In turn, this enhances (1) the responsiveness of the models to feedback, (2) the quality and meaning of uncertainty on their outputs and (3) their transparency to evaluation. To exemplify this approach, we extend Posterior Belief Assessment to offer a route to belief ownership from complex and competing AI structures. We argue that this is a significant way to bring ethical considerations into mathematical reasoning, and to implement ethical AI in statistical practice. We demonstrate these ideas within the context of competing models used to advise the UK government on the spread of the Omicron variant of COVID-19 during December 2021.

arxiv情報

著者 Cassandra Bird,Daniel Williamson,Sabina Leonelli
発行日 2023-09-11 15:13:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, math.ST, stat.TH パーマリンク