Intent-Aware Dialogue Generation and Multi-Task Contrastive Learning for Multi-Turn Intent Classification

要約

大規模でドメイン固有の多言語マルチターン対話データセットを生成することは、チャットボット システムで効果的なマルチターン インテント分類モデルをトレーニングする上で依然として大きなハードルとなっています。
この論文では、隠れマルコフ モデルと大規模言語モデル (LLM) を組み合わせて、セルフプレイを通じてコン​​テキストを認識したインテント駆動型の会話を生成する新しいメカニズムである Chain-of-Intent を紹介します。
電子商取引のチャット ログからドメイン固有の知識を抽出することで、会話のターンと意図の遷移を推定し、一貫した対話の生成を導きます。
LLM を活用して排出確率を高める当社のアプローチは、自然で文脈的に一貫した質問と回答を生成します。
また、マルチタスク対比学習を使用したマルチターン インテント分類のフレームワークである MINT-CL も提案し、大規模な注釈付きデータを必要とせずに分類精度を向上させます。
評価の結果、私たちの手法は、特に多言語設定において、対話の品質と意図分類の精度においてベースラインを上回り、データ生成の労力を大幅に削減できることが示されています。
さらに、この分野の将来の研究をサポートするために、多言語で意図を認識したマルチターン電子商取引対話コーパスである MINT-E をリリースします。

要約(オリジナル)

Generating large-scale, domain-specific, multilingual multi-turn dialogue datasets remains a significant hurdle for training effective Multi-Turn Intent Classification models in chatbot systems. In this paper, we introduce Chain-of-Intent, a novel mechanism that combines Hidden Markov Models with Large Language Models (LLMs) to generate contextually aware, intent-driven conversations through self-play. By extracting domain-specific knowledge from e-commerce chat logs, we estimate conversation turns and intent transitions, which guide the generation of coherent dialogues. Leveraging LLMs to enhance emission probabilities, our approach produces natural and contextually consistent questions and answers. We also propose MINT-CL, a framework for multi-turn intent classification using multi-task contrastive learning, improving classification accuracy without the need for extensive annotated data. Evaluations show that our methods outperform baselines in dialogue quality and intent classification accuracy, especially in multilingual settings, while significantly reducing data generation efforts. Furthermore, we release MINT-E, a multilingual, intent-aware multi-turn e-commerce dialogue corpus to support future research in this area.

arxiv情報

著者 Junhua Liu,Yong Keat Tan,Bin Fu,Kwan Hui Lim
発行日 2024-11-21 15:59:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク