Value Engineering for Autonomous Agents

要約

Machine Ethics (ME) は、人工道徳エージェント (AMA)、つまり、道徳的価値に従って推論および行動できる自律エージェントの設計に関係しています。
以前のアプローチでは、エージェントの推論の不可欠なコンポーネントとしてではなく、世界のいくつかのアクションまたは状態に関連付けられたラベルとして値を扱っていました。
また、規範によって管理された環境で、価値に導かれたエージェントが他の価値に導かれたエージェントと一緒に活動することを無視することも一般的であり、したがって AMA の社会的側面を省略しています。
この青空の論文では、道徳的および社会的心理学に基づいた新しい AMA パラダイムを提案します。このパラダイムでは、コンテキスト依存の目標として値がエージェントに浸透します。
これらの目標は、規範によって最も動機付けられる結果を評価することにより、個々のレベルの価値を集団レベルの規範に複雑に結び付けます。
エージェントが規範の道徳的含意の理解に恵まれているこのタイプの規範的推論は、自律エージェントの価値認識につながると主張します。
さらに、この機能は、エージェントが規範に関する価値に基づく推論を合意メカニズムで補完することにより、エージェントが社会に強制されている規範を、彼らに植え付けられた人間の価値観に合わせて調整する道を開きます。
人間の価値観に合うもの。
全体として、私たちのエージェントモデルは、価値を規範的な推論や、価値を認識するエージェントを現代のハイブリッドな人間とコンピューターの社会に統合するために必要な社会的機能に結び付けることで、価値を不活性なラベルとして扱うだけではありません。

要約(オリジナル)

Machine Ethics (ME) is concerned with the design of Artificial Moral Agents (AMAs), i.e. autonomous agents capable of reasoning and behaving according to moral values. Previous approaches have treated values as labels associated with some actions or states of the world, rather than as integral components of agent reasoning. It is also common to disregard that a value-guided agent operates alongside other value-guided agents in an environment governed by norms, thus omitting the social dimension of AMAs. In this blue sky paper, we propose a new AMA paradigm grounded in moral and social psychology, where values are instilled into agents as context-dependent goals. These goals intricately connect values at individual levels to norms at a collective level by evaluating the outcomes most incentivized by the norms in place. We argue that this type of normative reasoning, where agents are endowed with an understanding of norms’ moral implications, leads to value-awareness in autonomous agents. Additionally, this capability paves the way for agents to align the norms enforced in their societies with respect to the human values instilled in them, by complementing the value-based reasoning on norms with agreement mechanisms to help agents collectively agree on the best set of norms that suit their human values. Overall, our agent model goes beyond the treatment of values as inert labels by connecting them to normative reasoning and to the social functionalities needed to integrate value-aware agents into our modern hybrid human-computer societies.

arxiv情報

著者 Nieves Montes,Nardine Osman,Carles Sierra,Marija Slavkovik
発行日 2023-02-17 08:52:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA パーマリンク