Dynamic Generation of Personalities with Large Language Models

要約

人間の熟考を模倣する領域では、大規模言語モデル (LLM) が有望なパフォーマンスを示すため、この研究領域の重要性がさらに高まります。
熟議は論理と性格の両方に影響されます。
しかし、これまでの研究は主に LLM のロジックに焦点を当てており、性格面の探求は無視されていました。
この研究では、ハイパーネットワークに基づいた動的パーソナリティ生成方法である動的パーソナリティ生成 (DPG) を紹介します。
最初に、ビッグ ファイブ性格理論を GPT-4 に埋め込んで性格評価マシンを形成し、対話からキャラクターの性格特性を自動的に評価できるようにしました。
この評価方法に基づいて、個性生成能力を評価するための新しい指標を提案します。
次に、この性格評価マシンを使用してスクリプト データ内の対話を評価し、その結果、性格対話データセットが得られます。
最後に、パーソナリティ対話データセットで DPG を微調整します。
実験では、このデータセットを微調整した後の DPG のパーソナリティ生成機能が、従来の微調整方法よりも強力であり、プロンプトベースの GPT-4 を上回ることが証明されています。

要約(オリジナル)

In the realm of mimicking human deliberation, large language models (LLMs) show promising performance, thereby amplifying the importance of this research area. Deliberation is influenced by both logic and personality. However, previous studies predominantly focused on the logic of LLMs, neglecting the exploration of personality aspects. In this work, we introduce Dynamic Personality Generation (DPG), a dynamic personality generation method based on Hypernetworks. Initially, we embed the Big Five personality theory into GPT-4 to form a personality assessment machine, enabling it to evaluate characters’ personality traits from dialogues automatically. We propose a new metric to assess personality generation capability based on this evaluation method. Then, we use this personality assessment machine to evaluate dialogues in script data, resulting in a personality-dialogue dataset. Finally, we fine-tune DPG on the personality-dialogue dataset. Experiments prove that DPG’s personality generation capability is stronger after fine-tuning on this dataset than traditional fine-tuning methods, surpassing prompt-based GPT-4.

arxiv情報

著者 Jianzhi Liu,Hexiang Gu,Tianyu Zheng,Liuyu Xiang,Huijia Wu,Jie Fu,Zhaofeng He
発行日 2024-04-10 15:17:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク