Operationalising Rawlsian Ethics for Fairness in Norm-Learning Agents

要約

社会規範とは、社会で一般的な行動の基準です。
しかし、エージェントが他のエージェントにどのような影響を与えるかを考慮せずに意思決定を行うと、特定のエージェントの征服につながる規範が出現する可能性があります。
倫理規範学習エージェントを作成する手法である RAWL-E を紹介します。
RAWL-E エージェントは、意思決定プロセスにおいてロールズ倫理の公平原則であるマキシミンを運用し、社会の幸福と個人の目標のバランスをとることで倫理規範を推進します。
シミュレートされた収集シナリオで RAWL-E エージェントを評価します。
私たちは、RAWL-E エージェント社会で出現する規範が、ロールズ倫理を実装していないエージェント社会で出現する規範と比較して、社会福祉、公平性、堅牢性を高め、より高い最低経験を生み出すことを発見しました。

要約(オリジナル)

Social norms are standards of behaviour common in a society. However, when agents make decisions without considering how others are impacted, norms can emerge that lead to the subjugation of certain agents. We present RAWL-E, a method to create ethical norm-learning agents. RAWL-E agents operationalise maximin, a fairness principle from Rawlsian ethics, in their decision-making processes to promote ethical norms by balancing societal well-being with individual goals. We evaluate RAWL-E agents in simulated harvesting scenarios. We find that norms emerging in RAWL-E agent societies enhance social welfare, fairness, and robustness, and yield higher minimum experience compared to those that emerge in agent societies that do not implement Rawlsian ethics.

arxiv情報

著者 Jessica Woodgate,Paul Marshall,Nirav Ajmeri
発行日 2024-12-19 18:38:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA パーマリンク