Why Machines Can’t Be Moral: Turing’s Halting Problem and the Moral Limits of Artificial Intelligence

要約

このエッセイでは、ボトムアップアプローチを通じて道徳原則が推論される明示的な倫理マシンは、人間のような道徳的推論を複製することができず、道徳的主体とはみなされないと主張します。
アラン・チューリングの計算理論を利用することで、停止問題のため、道徳的推論がこれらのマシンでは計算的に処理できないことを示します。
私は、道徳的問題を「アルゴリズム的道徳的質問」に形式化し、道徳心理学の二重プロセス モデルを探求することによって、機械倫理の最前線に取り組みます。
チューリング マシンの性質により、理論的には人工エージェントが再帰的道徳推論に従事できるようになりますが、計算プロセスが停止するかどうかを確実に予測することは不可能であるという停止問題によって重大な制限が導入されます。
軍用ドローンを使った思考実験はこの問題を例証しており、人工エージェントは停止問題により行動の決定に失敗する可能性があり、あらゆる場合においてエージェントの意思決定能力が制限され、その道徳的主体性が損なわれる可能性があることを示している。

要約(オリジナル)

In this essay, I argue that explicit ethical machines, whose moral principles are inferred through a bottom-up approach, are unable to replicate human-like moral reasoning and cannot be considered moral agents. By utilizing Alan Turing’s theory of computation, I demonstrate that moral reasoning is computationally intractable by these machines due to the halting problem. I address the frontiers of machine ethics by formalizing moral problems into ‘algorithmic moral questions’ and by exploring moral psychology’s dual-process model. While the nature of Turing Machines theoretically allows artificial agents to engage in recursive moral reasoning, critical limitations are introduced by the halting problem, which states that it is impossible to predict with certainty whether a computational process will halt. A thought experiment involving a military drone illustrates this issue, showing that an artificial agent might fail to decide between actions due to the halting problem, which limits the agent’s ability to make decisions in all instances, undermining its moral agency.

arxiv情報

著者 Massimo Passamonti
発行日 2024-07-24 17:50:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク