Responsibility in a Multi-Value Strategic Setting

要約

責任は、マルチエージェント システムや、安全で信頼性が高く倫理的な AI を作成する際の重要な概念です。
しかし、責任に関するこれまでの研究のほとんどは、単一の結果に対する責任のみを考慮していました。
この論文では、複数のエージェント、複数の値の設定における責任帰属のモデルを紹介します。
また、責任の予測をカバーするようにモデルを拡張し、責任を考慮することがエージェントがその価値観に沿った戦略を選択するのにどのように役立つかを示します。
特に、非支配的な後悔最小化戦略が、エージェントの予想される責任の程度を確実に最小化することを示します。

要約(オリジナル)

Responsibility is a key notion in multi-agent systems and in creating safe, reliable and ethical AI. However, most previous work on responsibility has only considered responsibility for single outcomes. In this paper we present a model for responsibility attribution in a multi-agent, multi-value setting. We also expand our model to cover responsibility anticipation, demonstrating how considerations of responsibility can help an agent to select strategies that are in line with its values. In particular we show that non-dominated regret-minimising strategies reliably minimise an agent’s expected degree of responsibility.

arxiv情報

著者 Timothy Parker,Umberto Grandi,Emiliano Lorini
発行日 2024-10-22 17:51:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク