Towards a Unifying Model of Rationality in Multiagent Systems

要約

現実世界に展開されるマルチエージェント システムは、他のエージェント (人間を含む) と、これらのエージェントが互いに連携するのとほぼ同じくらい効果的に連携する必要があります。
このような AI を設計し、その有効性を保証するには、AI がどのタイプのエージェントと連携できる必要があるかを明確に指定する必要があります。
この研究では、社会的に知的なエージェントの一般的なモデルを提案します。エージェントは、個々に合理的な学習者であり、互いに協力することもできます(共同行動がパレート効率的であるという意味で)。
私たちは、各エージェントが生涯にわたって負った後悔という観点から合理性を定義し、さまざまな形の後悔に対して社会的に知的なエージェントを構築する方法を示します。
次に、社会的に知的なさまざまなエージェントと協力できる「堅牢な」MAS の開発に対するこのモデルの意味について議論します。

要約(オリジナル)

Multiagent systems deployed in the real world need to cooperate with other agents (including humans) nearly as effectively as these agents cooperate with one another. To design such AI, and provide guarantees of its effectiveness, we need to clearly specify what types of agents our AI must be able to cooperate with. In this work we propose a generic model of socially intelligent agents, which are individually rational learners that are also able to cooperate with one another (in the sense that their joint behavior is Pareto efficient). We define rationality in terms of the regret incurred by each agent over its lifetime, and show how we can construct socially intelligent agents for different forms of regret. We then discuss the implications of this model for the development of ‘robust’ MAS that can cooperate with a wide variety of socially intelligent agents.

arxiv情報

著者 Robert Loftin,Mustafa Mert Çelikok,Frans A. Oliehoek
発行日 2023-05-29 13:18:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GT, cs.MA, I.2.6 パーマリンク