Out-of-Domain Intent Detection Considering Multi-turn Dialogue Contexts

要約

タイトル: マルチターンの対話コンテキストを考慮したドメイン外意図検出

要約:
– ドメイン外(OOD)の意図検出は実用的な対話システムにとって重要であり、多くの場合マルチターンの対話コンテキストを考慮する必要がある。
– しかし、以前の多くのOOD意図検出手法は単一の対話ターンに限定されている。
– 本論文では、OOD意図検出タスクにおいてマルチターンのコンテキストをモデル化するためのコンテキスト重視のOOD意図検出(Caro)フレームワークを導入する。
– 特に、情報ボトルネック原理に従って各入力サンプルに対して2つの異なるビューを構築し、意図検出に関係のない余分な情報をマルチビュー情報ボトルネック損失を用いて除去する。
– さらに、Caroでは未ラベルのデータを活用することも可能で、ブートストラップアプローチを用いてこれらの未ラベルデータからOODサンプルを抽出し、得られたモデルのトレーニングに使用する。
– 実験は、Caroが以前の最高手法と比較してF1-OODスコアを$29\%$以上向上させ、マルチターンOOD検出タスクにおいて最先端の性能を実現することを示している。

要約(オリジナル)

Out-of-Domain (OOD) intent detection is vital for practical dialogue systems, and it usually requires considering multi-turn dialogue contexts. However, most previous OOD intent detection approaches are limited to single dialogue turns. In this paper, we introduce a context-aware OOD intent detection (Caro) framework to model multi-turn contexts in OOD intent detection tasks. Specifically, we follow the information bottleneck principle to extract robust representations from multi-turn dialogue contexts. Two different views are constructed for each input sample and the superfluous information not related to intent detection is removed using a multi-view information bottleneck loss. Moreover, we also explore utilizing unlabeled data in Caro. A two-stage training process is introduced to mine OOD samples from these unlabeled data, and these OOD samples are used to train the resulting model with a bootstrapping approach. Comprehensive experiments demonstrate that Caro establishes state-of-the-art performances on multi-turn OOD detection tasks by improving the F1-OOD score of over $29\%$ compared to the previous best method.

arxiv情報

著者 Hao Lang,Yinhe Zheng,Binyuan Hui,Fei Huang,Yongbin Li
発行日 2023-05-05 01:39:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク