要約
大規模言語モデル (LLM) は、人間に似た多くの能力を実証してきましたが、LLM の共感的な理解と感情状態はまだ人間のそれと一致していません。
この研究では、生成 LLM エージェントが新しいイベントを認識するにつれて感情状態がどのように進化するかを調査し、新しい経験を過去の記憶と比較する新しいアーキテクチャを導入します。
この比較を通じて、エージェントは状況に応じて新しい経験を理解する能力を獲得します。これは、感情の評価理論によれば、感情の生成に不可欠です。
まず、エージェントは新しい体験を時系列のテキストデータとして認識します。
新しい入力をそれぞれ認識した後、エージェントは標準と呼ばれる過去の関連する記憶の概要を生成し、新しい経験をこの標準と比較します。
この比較を通じて、エージェントがコンテキスト内の新しいエクスペリエンスにどのように反応するかを分析できます。
感情テストである PANAS がエージェントに実施され、新しいイベントを認識した後のエージェントの感情状態が記録されます。
最後に、新しい経験はエージェントの記憶に追加され、将来の規範の作成に使用されます。
感情的な状況から自然言語で複数のエクスペリエンスを作成することで、提案されたアーキテクチャを幅広いシナリオでテストします。
さまざまな結果は、コンテキストを導入することでエージェントの感情的な調整を改善できる場合があることを示唆していますが、さらなる研究と人間の評価者との比較が必要です。
この論文が生成エージェントの調整に向けた新たな一歩となることを願っています。
要約(オリジナル)
Large Language Models (LLMs) have demonstrated a number of human-like abilities, however the empathic understanding and emotional state of LLMs is yet to be aligned to that of humans. In this work, we investigate how the emotional state of generative LLM agents evolves as they perceive new events, introducing a novel architecture in which new experiences are compared to past memories. Through this comparison, the agent gains the ability to understand new experiences in context, which according to the appraisal theory of emotion is vital in emotion creation. First, the agent perceives new experiences as time series text data. After perceiving each new input, the agent generates a summary of past relevant memories, referred to as the norm, and compares the new experience to this norm. Through this comparison we can analyse how the agent reacts to the new experience in context. The PANAS, a test of affect, is administered to the agent, capturing the emotional state of the agent after the perception of the new event. Finally, the new experience is then added to the agents memory to be used in the creation of future norms. By creating multiple experiences in natural language from emotionally charged situations, we test the proposed architecture on a wide range of scenarios. The mixed results suggests that introducing context can occasionally improve the emotional alignment of the agent, but further study and comparison with human evaluators is necessary. We hope that this paper is another step towards the alignment of generative agents.
arxiv情報
著者 | Ciaran Regan,Nanami Iwahashi,Shogo Tanaka,Mizuki Oka |
発行日 | 2024-02-06 18:39:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google