Character-LLM: A Trainable Agent for Role-Playing

要約

大規模言語モデル (LLM) は、人間の指示を理解し、生成された高品質のテキストを提供する強力な機能を備えているため、人間の行動をシミュレートするエージェントとして機能するために使用できます。
このような能力は、LLM が単純な人間の行動よりも高度な形式で人間をシミュレートできるのではないかという疑問を私たちに与えます。
したがって、限られたプロンプトを使用して ChatGPT API を指示するのではなく、特定の人のプロフィール、経験、感情状態を使用してエージェントをトレーニングすることを目指しています。
この研究では、LLM にベートーベン、クレオパトラ女王、ジュリアス シーザーなどの特定の人物として行動するよう教える Character-LLM を導入します。私たちの手法は、特定のキャラクターの経験としてプロファイルを編集し、モデルをこれらと個人的なシミュラクルになるようにトレーニングすることに焦点を当てています。
経験。
私たちのアプローチの有効性を評価するために、訓練を受けたエージェントにインタビューし、エージェントが自分の性格や経験を \textit{記憶}しているかどうかを評価するテスト プレイグラウンドを構築します。
実験結果は、人類の将来のシミュレーションを構築するのに役立つ興味深い観察結果を示しています。

要約(オリジナル)

Large language models (LLMs) can be used to serve as agents to simulate human behaviors, given the powerful ability to understand human instructions and provide high-quality generated texts. Such ability stimulates us to wonder whether LLMs can simulate a person in a higher form than simple human behaviors. Therefore, we aim to train an agent with the profile, experience, and emotional states of a specific person instead of using limited prompts to instruct ChatGPT API. In this work, we introduce Character-LLM that teach LLMs to act as specific people such as Beethoven, Queen Cleopatra, Julius Caesar, etc. Our method focuses on editing profiles as experiences of a certain character and training models to be personal simulacra with these experiences. To assess the effectiveness of our approach, we build a test playground that interviews trained agents and evaluates whether the agents \textit{memorize} their characters and experiences. Experimental results show interesting observations that help build future simulacra of humankind.

arxiv情報

著者 Yunfan Shao,Linyang Li,Junqi Dai,Xipeng Qiu
発行日 2023-12-14 11:49:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク