Human Values in Multiagent Systems

要約

タイトル: マルチエージェントシステムにおける人間の価値観

要約:
– 現代において、AIの倫理的問題として、人間の価値観に沿った推論や行動が計算可能なシステムを開発することが求められている。
– しかし、人間の価値観は曖昧、矛盾、流動的であることが問題となっている。
– この問題を解決するために、社会科学に根ざした価値観の形式的表現を提示し、マルチエージェントシステムにおける価値観に合致した行動を達成するためのキーチャレンジと研究ロードマップを提供する。

要約(オリジナル)

One of the major challenges we face with ethical AI today is developing computational systems whose reasoning and behaviour are provably aligned with human values. Human values, however, are notorious for being ambiguous, contradictory and ever-changing. In order to bridge this gap, and get us closer to the situation where we can formally reason about implementing values into AI, this paper presents a formal representation of values, grounded in the social sciences. We use this formal representation to articulate the key challenges for achieving value-aligned behaviour in multiagent systems (MAS) and a research roadmap for addressing them.

arxiv情報

著者 Nardine Osman,Mark d’Inverno
発行日 2023-05-04 11:23:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: 68T01, cs.AI, cs.CY, cs.MA, I.2.0 パーマリンク