要約
大規模言語モデル(LLM)はオープンドメインの対話エージェントに革命をもたらしたが、多キャラクター・ロールプレイング(MCRP)シナリオでは課題に遭遇する。この問題に対処するために、我々は、効率的な複数の文字の模倣のために設計された革新的なフレームワーク、Neekoを提示します。既存の方法とは異なり、Neekoは動的な低ランクアダプター(LoRA)戦略を採用し、多様なキャラクターにシームレスに適応することを可能にします。私たちのフレームワークは、ロールプレイングプロセスをエージェントの事前学習、複数キャラクターの再生、およびキャラクターの漸進的学習に分解し、見た役割と見たことのない役割の両方を効果的に処理します。このダイナミックなアプローチは、各キャラクターのための明確なLoRAブロックと相まって、ユニークな属性、性格、およびスピーキングパターンに対するNeekoの適応性を強化します。その結果、NeekoはMCRPにおいて、既存のほとんどの方法よりも優れた性能を発揮し、より魅力的で多彩なユーザーとのインタラクション体験を提供します。コードとデータはhttps://github.com/weiyifan1023/Neeko。
要約(オリジナル)
Large Language Models (LLMs) have revolutionized open-domain dialogue agents but encounter challenges in multi-character role-playing (MCRP) scenarios. To address the issue, we present Neeko, an innovative framework designed for efficient multiple characters imitation. Unlike existing methods, Neeko employs a dynamic low-rank adapter (LoRA) strategy, enabling it to adapt seamlessly to diverse characters. Our framework breaks down the role-playing process into agent pre-training, multiple characters playing, and character incremental learning, effectively handling both seen and unseen roles. This dynamic approach, coupled with distinct LoRA blocks for each character, enhances Neeko’s adaptability to unique attributes, personalities, and speaking patterns. As a result, Neeko demonstrates superior performance in MCRP over most existing methods, offering more engaging and versatile user interaction experiences. Code and data are available at https://github.com/weiyifan1023/Neeko.
arxiv情報
著者 | Xiaoyan Yu,Tongxu Luo,Yifan Wei,Fangyu Lei,Yiming Huang,Hao Peng,Liehuang Zhu |
発行日 | 2024-03-01 08:20:48+00:00 |
arxivサイト | arxiv_id(pdf) |