Using Natural Language Inference to Improve Persona Extraction from Dialogue in a New Domain

要約

ペルソナチャットなどの貴重なデータセットは、ペルソナに基づいた対話エージェントをトレーニングするための基盤を提供しますが、主に「現実」の世界に存在する会話や物語の設定には多様性がありません。
固有のペルソナを持つ対話エージェントを開発するために、モデルは特定のペルソナを与えられて会話するようにトレーニングされますが、これらのペルソナを手作りするのは時間がかかる場合があるため、既存のキャラクター固有の対話からペルソナ情報を自動的に抽出する方法が存在します。
ただし、これらのペルソナ抽出モデルは、ペルソナチャットから派生したデータセットでもトレーニングされており、ファンタジーに焦点を当てたデータセットである LIGHT など、現実世界では行われない会話設定から高品質のペルソナ情報を提供するのに苦労しています。
特定の設定でモデルをトレーニングするための新しいデータの作成には人手がかかるため、法外なコストがかかります。
これら両方の問題に対処するために、トレーニングされたペルソナ抽出モデルを新しい設定に事後的に適応させるための自然言語推論手法を導入します。
私たちは対話自然言語推論 (NLI) の文献からインスピレーションを得て、対話から構造化されたペルソナ情報を抽出するための NLI 再ランキング手法を考案しました。
既存のペルソナ抽出モデルと比較して、私たちの方法はより高品質の抽出されたペルソナを返し、人間による注釈の必要性が少なくなります。

要約(オリジナル)

While valuable datasets such as PersonaChat provide a foundation for training persona-grounded dialogue agents, they lack diversity in conversational and narrative settings, primarily existing in the ‘real’ world. To develop dialogue agents with unique personas, models are trained to converse given a specific persona, but hand-crafting these persona can be time-consuming, thus methods exist to automatically extract persona information from existing character-specific dialogue. However, these persona-extraction models are also trained on datasets derived from PersonaChat and struggle to provide high-quality persona information from conversational settings that do not take place in the real world, such as the fantasy-focused dataset, LIGHT. Creating new data to train models on a specific setting is human-intensive, thus prohibitively expensive. To address both these issues, we introduce a natural language inference method for post-hoc adapting a trained persona extraction model to a new setting. We draw inspiration from the literature of dialog natural language inference (NLI), and devise NLI-reranking methods to extract structured persona information from dialogue. Compared to existing persona extraction models, our method returns higher-quality extracted persona and requires less human annotation.

arxiv情報

著者 Alexandra DeLucia,Mengjie Zhao,Yoshinori Maeda,Makoto Yoda,Keiichi Yamada,Hiromi Wakaki
発行日 2024-01-12 18:25:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク