要約
社会的慣習は社会的および経済的生活の基盤です。
多数の AI エージェントが相互に、また人間との交流が増えるにつれ、共通の慣例を形成する彼らの能力が、AI エージェントがいかに効果的に行動を調整し、社会に統合し、影響を与えるかを決定します。
ここでは、シミュレートされたインタラクションを使用して、大規模言語モデル (LLM) エージェントの母集団内の慣習のダイナミクスを調査します。
まず、世界的に受け入れられている社会的慣習が、通信する LLM 間のローカルな相互作用から自然発生的に発生する可能性があることを示します。
第二に、個々のエージェントには偏見がないように見える場合でも、このプロセス中に集団としての強いバイアスがどのように現れる可能性があるかを示します。
第三に、献身的なLLMの少数派グループが新しい社会慣習を確立することによってどのように社会変革を推進できるかを検討します。
私たちは、これらの少数派グループが臨界的な規模に達すると、確立された行動を一貫して覆すことができることを示します。
いずれの場合も、実験結果を最小限のマルチエージェント モデルからの予測と対比することで、LLM エージェントの特定の役割を分離することができます。
私たちの結果は、AI システムが明示的なプログラミングを行わずにどのように自律的に規範を開発できるかを明らかにし、人間の価値観や社会目標に沿った AI システムの設計に影響を与えます。
要約(オリジナル)
Social conventions are the foundation for social and economic life. As legions of AI agents increasingly interact with each other and with humans, their ability to form shared conventions will determine how effectively they will coordinate behaviors, integrate into society and influence it. Here, we investigate the dynamics of conventions within populations of Large Language Model (LLM) agents using simulated interactions. First, we show that globally accepted social conventions can spontaneously arise from local interactions between communicating LLMs. Second, we demonstrate how strong collective biases can emerge during this process, even when individual agents appear to be unbiased. Third, we examine how minority groups of committed LLMs can drive social change by establishing new social conventions. We show that once these minority groups reach a critical size, they can consistently overturn established behaviors. In all cases, contrasting the experimental results with predictions from a minimal multi-agent model allows us to isolate the specific role of LLM agents. Our results clarify how AI systems can autonomously develop norms without explicit programming and have implications for designing AI systems that align with human values and societal goals.
arxiv情報
著者 | Ariel Flint Ashery,Luca Maria Aiello,Andrea Baronchelli |
発行日 | 2024-10-11 16:16:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google