要約
感情は私たちの意思決定プロセスをガイドしますが、実際の倫理的意思決定のシナリオではほとんど検討されていません。
この課題では、感情と、それが家庭用ロボットのコンテキストにおける倫理的意思決定にどのように影響するかを調査します。ロボットはどのフェッチ リクエストを実行する必要があるのか、またなぜ実行しないのか?
特に、感情の 2 つの側面について説明します。 (1) 体性マーカー: 取得するオブジェクトはネガティブなもの (ナイフなどの危険なもの、または過剰摂取の可能性のある薬など、心を変えるもの) としてタグ付けされ、どこに焦点を当てるべきかについての迅速なヒューリスティックを提供します。
人工知能の古典的なフレーム問題を回避するための注意、(2) 感情推論: ロボットが人間の要求にいつどのように応答するかを定義する際に、ユーザーの価度と覚醒レベルが考慮されます。
激しい感情を抱いているユーザーに危険なアイテムを与えることを慎重に検討してください。
当社の感情ベースのアプローチは、安全性を第一に考慮するための基盤を構築し、コンテキスト (ユーザーの年齢、アレルギーなど) とプライバシー (管理者の設定など) に基づいたオーバーライドをサポートするポリシーによって補完されます。
透明性も当社のソリューションの重要な側面です。
私たちのソリューションは、リアルタイムで推論情報を提供できる実装可能な設計を目指して、ビヘイビア ツリーを使用して定義されています。
要約(オリジナル)
Emotions guide our decision making process and yet have been little explored in practical ethical decision making scenarios. In this challenge, we explore emotions and how they can influence ethical decision making in a home robot context: which fetch requests should a robot execute, and why or why not? We discuss, in particular, two aspects of emotion: (1) somatic markers: objects to be retrieved are tagged as negative (dangerous, e.g. knives or mind-altering, e.g. medicine with overdose potential), providing a quick heuristic for where to focus attention to avoid the classic Frame Problem of artificial intelligence, (2) emotion inference: users’ valence and arousal levels are taken into account in defining how and when a robot should respond to a human’s requests, e.g. to carefully consider giving dangerous items to users experiencing intense emotions. Our emotion-based approach builds a foundation for the primary consideration of Safety, and is complemented by policies that support overriding based on Context (e.g. age of user, allergies) and Privacy (e.g. administrator settings). Transparency is another key aspect of our solution. Our solution is defined using behaviour trees, towards an implementable design that can provide reasoning information in real-time.
arxiv情報
著者 | Paige Tuttösí,Zhitian Zhang,Emma Hughson,Angelica Lim |
発行日 | 2024-05-10 15:39:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google