要約
私たちは、Large Language Model (LLM) ベースのエージェントを使用して、エージェンシーの創発をゼロから研究します。
LLM ベースのエージェントに関するこれまでの研究では、性格や記憶などの各エージェントの特性は伝統的に事前定義されていました。
私たちは、行動、性格、記憶などの個性を未分化な状態からどのように区別できるかに焦点を当てました。
現在の LLM エージェントは、グループ シミュレーション内で協力的な通信を行い、自然言語でコンテキスト ベースのメッセージを交換します。
このマルチエージェントシミュレーションを分析することにより、社会規範、協力、性格特性がどのように自発的に現れるかについての貴重な新しい洞察を報告します。
この論文は、自律的に対話する LLM を利用したエージェントが幻覚とハッシュタグを生成してコミュニケーションを維持し、その結果、対話内の単語の多様性が増加することを示しています。
各エージェントの感情はコミュニケーションを通じて変化し、コミュニティを形成するにつれてエージェントの個性が現れ、それに応じて進化します。
この計算モデリングのアプローチとその発見は、集団人工知能を分析するための新しい方法を提供します。
要約(オリジナル)
We study the emergence of agency from scratch by using Large Language Model (LLM)-based agents. In previous studies of LLM-based agents, each agent’s characteristics, including personality and memory, have traditionally been predefined. We focused on how individuality, such as behavior, personality, and memory, can be differentiated from an undifferentiated state. The present LLM agents engage in cooperative communication within a group simulation, exchanging context-based messages in natural language. By analyzing this multi-agent simulation, we report valuable new insights into how social norms, cooperation, and personality traits can emerge spontaneously. This paper demonstrates that autonomously interacting LLM-powered agents generate hallucinations and hashtags to sustain communication, which, in turn, increases the diversity of words within their interactions. Each agent’s emotions shift through communication, and as they form communities, the personalities of the agents emerge and evolve accordingly. This computational modeling approach and its findings will provide a new method for analyzing collective artificial intelligence.
arxiv情報
著者 | Ryosuke Takata,Atsushi Masumori,Takashi Ikegami |
発行日 | 2024-11-05 16:49:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google