要約
AI システムの能力の向上と普及に伴い、社会は人間の自主性の低下、民主主義の危機、人権の制限と、人間と社会の価値観に沿って協力、回復力、知識、倫理的行動を育む AI のどちらかを選択する必要があります。
この章では、AI システムを人間が有意義に制御するための自己反省型 AI システムの概念を紹介します。
意思決定支援システムに焦点を当て、心理学や哲学の知識と形式的推論手法や機械学習アプローチを統合して、人間の価値観や社会規範に対応する AI システムを作成するフレームワークを提案します。
また、AI システムにおける自己反省機能を設計および開発するための可能な研究アプローチも提案します。
最後に、自己反省型 AI システムは自己反省型ハイブリッド システム (人間 + AI) につながる可能性があると主張します。これにより、人間の道徳的盲点の可能性について理解しやすい情報と洞察を提供することで、人間による有意義な制御が強化され、人間の道徳的推論が強化されると考えられます。
要約(オリジナル)
With the growing capabilities and pervasiveness of AI systems, societies must collectively choose between reduced human autonomy, endangered democracies and limited human rights, and AI that is aligned to human and social values, nurturing collaboration, resilience, knowledge and ethical behaviour. In this chapter, we introduce the notion of self-reflective AI systems for meaningful human control over AI systems. Focusing on decision support systems, we propose a framework that integrates knowledge from psychology and philosophy with formal reasoning methods and machine learning approaches to create AI systems responsive to human values and social norms. We also propose a possible research approach to design and develop self-reflective capability in AI systems. Finally, we argue that self-reflective AI systems can lead to self-reflective hybrid systems (human + AI), thus increasing meaningful human control and empowering human moral reasoning by providing comprehensible information and insights on possible human moral blind spots.
arxiv情報
著者 | Catholijn M. Jonker,Luciano Cavalcante Siebert,Pradeep K. Murukannaiah |
発行日 | 2023-07-12 13:32:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google