要約
性格は人間の表現パターンを形成する上で極めて重要な役割を果たしており、性格特性を備えた大規模言語モデル (LLM) に権限を与えて操作することは、LLM のユーザー エクスペリエンスを向上させる上で大きな可能性を秘めています。
しかし、従来のアプローチは、個人化された表現が豊富に含まれたコーパス上で LLM を微調整することに依存するか、LLM に個人化された応答を生成させるためのプロンプトを手動で作成する必要がありました。
前者のアプローチは、十分なトレーニング例を収集するためにかなりの時間とリソースを必要としますが、後者のアプローチは、きめ細かいレベルでの性格特性の正確な操作を可能にすることに失敗する可能性があります(たとえば、寛容さを減らしながら高い好感度を達成するなど)。
この研究では、LLM 内の性格特性を調整するための新しいアプローチを導入し、ビッグ 5 要素 (つまり、開放性、誠実さ、外向性、同調性、神経質性) の任意の組み合わせをプラグイン可能な方法で組み込むことを可能にします。
これは、復号フェーズ中に元の LLM によって予測される次のトークンの確率を調整するために利用される、教師なし構築個人用レキシコン (UBPL) のセットを採用することによって実現されます。
この調整により、生成されるテキストの自然さを維持しながら、モデルがパーソナライズされた語彙集に存在する単語を生成することが促進されます。
広範な実験により、LLM の性格特性を細かく操作する際の私たちのアプローチの有効性が実証されました。
さらに、私たちの方法は、パラメータを更新することなく他の LLM にシームレスに統合できます。
要約(オリジナル)
Personality plays a pivotal role in shaping human expression patterns, and empowering and manipulating large language models (LLMs) with personality traits holds significant promise in enhancing the user experience of LLMs. However, prior approaches either rely on fine-tuning LLMs on a corpus enriched with personalized expressions or necessitate the manual crafting of prompts to induce LLMs to produce personalized responses. The former approaches demand substantial time and resources for collecting sufficient training examples while the latter might fail in enabling the precise manipulation of the personality traits at a fine-grained level (e.g., achieving high agreeableness while reducing openness). In this study, we introduce a novel approach for tailoring personality traits within LLMs, allowing for the incorporation of any combination of the Big Five factors (i.e., openness, conscientiousness, extraversion, agreeableness, and neuroticism) in a pluggable manner. This is achieved by employing a set of Unsupervisedly-Built Personalized Lexicons (UBPL) that are utilized to adjust the probability of the next token predicted by the original LLMs during the decoding phase. This adjustment encourages the models to generate words present in the personalized lexicons while preserving the naturalness of the generated texts. Extensive experimentation demonstrates the effectiveness of our approach in finely manipulating LLMs’ personality traits. Furthermore, our method can be seamlessly integrated into other LLMs without necessitating updates to their parameters.
arxiv情報
著者 | Tianlong Li,Xiaoqing Zheng,Xuanjing Huang |
発行日 | 2023-10-25 12:16:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google