要約
パーソナライズされた対話システムは、さまざまなペルソナに合わせた応答を生成する機能により、近年大きな注目を集めています。
しかし、既存のアプローチのほとんどは、事前定義された個人プロファイルに依存しており、作成に時間と労力がかかるだけでなく、柔軟性にも欠けています。
我々は、事前にトレーニングされた大規模言語モデルの能力を強化する微調整フレームワークである対話内学習(IDL)を提案します。これは、事前に定義されたプロファイルなしでパーソナライズされた対話生成タスクを完了するために、対話履歴を活用してペルソナを特徴付けます。
3 つのデータセットに対する実験では、IDL が大幅な改善をもたらし、BLEU スコアと ROUGE スコアがそれぞれ最大 200% と 247% 増加することが実証されました。
さらに、人による評価の結果により、私たちが提案した方法の有効性がさらに検証されました。
要約(オリジナル)
Personalized dialogue systems have gained significant attention in recent years for their ability to generate responses in alignment with different personas. However, most existing approaches rely on pre-defined personal profiles, which are not only time-consuming and labor-intensive to create but also lack flexibility. We propose In-Dialogue Learning (IDL), a fine-tuning framework that enhances the ability of pre-trained large language models to leverage dialogue history to characterize persona for completing personalized dialogue generation tasks without pre-defined profiles. Our experiments on three datasets demonstrate that IDL brings substantial improvements, with BLEU and ROUGE scores increasing by up to 200% and 247%, respectively. Additionally, the results of human evaluations further validate the efficacy of our proposed method.
arxiv情報
著者 | Chuanqi Cheng,Quan Tu,Wei Wu,Shuo Shang,Cunli Mao,Zhengtao Yu,Rui Yan |
発行日 | 2024-03-05 16:43:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google