Diversity-grounded Channel Prototypical Learning for Out-of-Distribution Intent Detection

要約

タスク指向の対話システムの領域では、堅牢な意図検出メカニズムが、現実のシナリオで遭遇する不正な発話を効果的に処理する必要があります。
この研究では、ID クラス名から派生したプロトタイプとのセマンティック マッチングを利用する、ディストリビューション内 (ID) インテント分類とディストリビューション外 (OOD) インテント検出の強化を目的とした大規模言語モデル (LLM) の新しい微調整フレームワークを紹介します。

LLM の高度に区別可能な表現を利用することで、多様性に基づいたプロンプト チューニング アプローチを使用して、各 ID クラスのセマンティック プロトタイプを構築します。
私たちは、ID クラスと OOD クラスが意味的に近いものの異なる、困難な OOD コンテキストでフレームワークを厳密にテストします。これを \emph{near} OOD 検出と呼びます。
徹底的な評価を行うために、一般的な微調整アプローチに対してメソッドをベンチマークします。
実験結果は、私たちの方法が少数ショット ID インテント分類タスクと近 OOD インテント検出タスクの両方で優れたパフォーマンスを示していることを明らかにしています。

要約(オリジナル)

In the realm of task-oriented dialogue systems, a robust intent detection mechanism must effectively handle malformed utterances encountered in real-world scenarios. This study presents a novel fine-tuning framework for large language models (LLMs) aimed at enhancing in-distribution (ID) intent classification and out-of-distribution (OOD) intent detection, which utilizes semantic matching with prototypes derived from ID class names. By harnessing the highly distinguishable representations of LLMs, we construct semantic prototypes for each ID class using a diversity-grounded prompt tuning approach. We rigorously test our framework in a challenging OOD context, where ID and OOD classes are semantically close yet distinct, referred to as \emph{near} OOD detection. For a thorough assessment, we benchmark our method against the prevalent fine-tuning approaches. The experimental findings reveal that our method demonstrates superior performance in both few-shot ID intent classification and near-OOD intent detection tasks.

arxiv情報

著者 Bo Liu,Liming Zhan,Yujie Feng,Zexin Lu,Chengqiang Xie,Lei Xue,Xiao-Ming Wu,Albert Y. S. Lam
発行日 2024-09-17 12:07:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク