要約
マルチセッションのペルソナベースの対話生成は、長期的な一貫性を維持し、多様でパーソナライズされた応答を生成する際の課題を提示します。
大規模な言語モデル(LLM)はシングルセッションの対話に優れていますが、拡張された相互作用全体でペルソナの忠実さと会話の一貫性を維持するのに苦労しています。
既存の方法は通常、応答生成の前にペルソナ情報を取得します。これは、多様性を制約し、一般的な出力をもたらす可能性があります。
このプロセスを逆転させる新しい2段階のフレームワークであるPostペルソナアライメント(PPA)を提案します。
PPAは、最初に対話のコンテキストのみに基づいて一般的な応答を生成し、次にクエリとして応答を使用して関連するペルソナメモリを取得し、最後にスピーカーのペルソナと一致する応答を改善します。
この事後整合戦略は、一貫性とパーソナライズを維持しながら、自然性と多様性を促進します。
マルチセッションLLM生成ダイアログデータの実験は、PPAが一貫性、多様性、およびペルソナ関連の事前のアプローチを大幅に上回り、長期的なパーソナライズされたダイアログ生成に対してより柔軟で効果的なパラダイムを提供することを示しています。
要約(オリジナル)
Multi-session persona-based dialogue generation presents challenges in maintaining long-term consistency and generating diverse, personalized responses. While large language models (LLMs) excel in single-session dialogues, they struggle to preserve persona fidelity and conversational coherence across extended interactions. Existing methods typically retrieve persona information before response generation, which can constrain diversity and result in generic outputs. We propose Post Persona Alignment (PPA), a novel two-stage framework that reverses this process. PPA first generates a general response based solely on dialogue context, then retrieves relevant persona memories using the response as a query, and finally refines the response to align with the speaker’s persona. This post-hoc alignment strategy promotes naturalness and diversity while preserving consistency and personalization. Experiments on multi-session LLM-generated dialogue data demonstrate that PPA significantly outperforms prior approaches in consistency, diversity, and persona relevance, offering a more flexible and effective paradigm for long-term personalized dialogue generation.
arxiv情報
著者 | Yi-Pei Chen,Noriki Nishida,Hideki Nakayama,Yuji Matsumoto |
発行日 | 2025-06-13 15:04:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google