Why should we ever automate moral decision making?

要約

人々は一般に、生活のさまざまな側面での意思決定を AI に信頼していますが、重大な道徳的影響を伴う意思決定に AI が関与すると懸念が生じます。
倫理は単純化された数学モデルに反することが多いため、道徳的推論のための正確な数学的枠組みが存在しないことが、こうした懸念をさらに強めています。
明確に定義された数学的枠組みがある論理的推論、不確実性の下での推論、戦略的意思決定などの分野とは異なり、道徳的推論には広く受け入れられている枠組みがありません。
この不在は、AI の道徳的意思決定能力に私たちが信頼を置けるかという疑問を引き起こします。
現在、AI システムが通常訓練される環境は、そのようなシステムがゼロから倫理を学習するには不十分なようであり、たとえ適切な環境があったとしても、どのようにしてそのような学習を実現できるかは不明です。
別のアプローチには、AI が人間の道徳的決定から学習することが含まれます。
この学習プロセスには、特定の領域で厳選された人間の判断やデモンストレーションを集約したり、広範囲のデータを供給された基礎モデルを活用したりすることが含まれます。
それでも、人間の道徳的意思決定には不完全性があることを考えると、懸念は依然として残っています。
このことを考えると、なぜ道徳的な意思決定を自動化する必要があるのでしょうか。すべての道徳的な意思決定を人間に任せたほうが良いのではないでしょうか?
このペーパーでは、AI システムが道徳的要素を伴う意思決定に関与することを期待すべき多くの理由を、関連するリスクについて簡単に説明しながら説明します。

要約(オリジナル)

While people generally trust AI to make decisions in various aspects of their lives, concerns arise when AI is involved in decisions with significant moral implications. The absence of a precise mathematical framework for moral reasoning intensifies these concerns, as ethics often defies simplistic mathematical models. Unlike fields such as logical reasoning, reasoning under uncertainty, and strategic decision-making, which have well-defined mathematical frameworks, moral reasoning lacks a broadly accepted framework. This absence raises questions about the confidence we can place in AI’s moral decision-making capabilities. The environments in which AI systems are typically trained today seem insufficiently rich for such a system to learn ethics from scratch, and even if we had an appropriate environment, it is unclear how we might bring about such learning. An alternative approach involves AI learning from human moral decisions. This learning process can involve aggregating curated human judgments or demonstrations in specific domains, or leveraging a foundation model fed with a wide range of data. Still, concerns persist, given the imperfections in human moral decision making. Given this, why should we ever automate moral decision making — is it not better to leave all moral decision making to humans? This paper lays out a number of reasons why we should expect AI systems to engage in decisions with a moral component, with brief discussions of the associated risks.

arxiv情報

著者 Vincent Conitzer
発行日 2024-07-10 13:59:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク