要約
大規模な言語モデル(LLMS)の進歩は、LLMが社会科学研究や機械学習モデルトレーニングで人間生成データを増強できる人間の行動シミュレーションなど、さまざまなドメインで新たなアプリケーションの道を開いた。
ただし、事前に保護されたLLMは、個人とグループ間の固有のばらつきのため、ターゲット集団の行動の多様性を捉えることができないことがよくあります。
これに対処するために、\ textit {ペルソナの混合}(MOP)、\ textIT {probabilistic}プロンプトのプロンプトを提案します。
MOPはコンテキスト混合モデルであり、各コンポーネントはペルソナとサブポピュレーションの動作を表す模範を特徴とするLMエージェントです。
ペルソナと模範は、シミュレーション中に多様なLLM応答を引き出すために、学習された混合重量に従ってランダムに選択されます。
MOPは柔軟性があり、モデルの微調整を必要とせず、ベースモデル全体で転送可能です。
合成データ生成の実験は、MOPがアラインメントおよび多様性メトリックの競合する方法を上回ることを示しています。
要約(オリジナル)
Advances in Large Language Models (LLMs) paved the way for their emerging applications in various domains, such as human behavior simulations, where LLMs could augment human-generated data in social science research and machine learning model training. However, pretrained LLMs often fail to capture the behavioral diversity of target populations due to the inherent variability across individuals and groups. To address this, we propose \textit{Mixture of Personas} (MoP), a \textit{probabilistic} prompting method that aligns the LLM responses with the target population. MoP is a contextual mixture model, where each component is an LM agent characterized by a persona and an exemplar representing subpopulation behaviors. The persona and exemplar are randomly chosen according to the learned mixing weights to elicit diverse LLM responses during simulation. MoP is flexible, requires no model finetuning, and is transferable across base models. Experiments for synthetic data generation show that MoP outperforms competing methods in alignment and diversity metrics.
arxiv情報
著者 | Ngoc Bui,Hieu Trung Nguyen,Shantanu Kumar,Julian Theodore,Weikang Qiu,Viet Anh Nguyen,Rex Ying |
発行日 | 2025-04-07 12:43:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google