CoXQL: A Dataset for Parsing Explanation Requests in Conversational XAI Systems

要約

大規模言語モデル (LLM) に基づく会話型説明可能人工知能 (ConvXAI) システムは、自然言語処理 (NLP) およびヒューマン コンピューター インタラクション (HCI) の研究コミュニティから大きな関心を集めています。
このようなシステムは、説明に関するユーザーの質問に答え、ユーザーの理解を高め、LLM の意思決定および生成プロセスに関するより多くの情報を提供する可能性があります。
現在利用可能な ConvXAI システムは、フリー チャットではなく、意図認識に基づいています。
したがって、ConvXAI システムでユーザーの意図を確実に把握することは依然として課題となっています。リクエストをマッピングする XAI メソッドが広範囲に存在し、それぞれが処理すべき複数のスロットを持つ可能性があるためです。
このギャップを埋めるために、ConvXAI でのユーザー意図認識のための最初のデータセットである CoXQL を紹介します。これは 31 の意図をカバーしており、そのうち 7 つは追加のスロットを埋める必要があります。
その後、テンプレート検証を組み込むことで既存の解析アプローチを強化し、さまざまな解析戦略を使用して CoXQL 上のいくつかの LLM の評価を実行します。
改良された解析アプローチ (MP+) は以前のアプローチのパフォーマンスを上回っていると結論付けています。
また、複数のスロットを持つインテントは、LLM にとって依然として非常に困難であることもわかりました。

要約(オリジナル)

Conversational explainable artificial intelligence (ConvXAI) systems based on large language models (LLMs) have garnered significant interest from the research community in natural language processing (NLP) and human-computer interaction (HCI). Such systems can provide answers to user questions about explanations, have the potential to enhance users’ comprehension and offer more information about the decision-making and generation processes of LLMs. Currently available ConvXAI systems are based on intent recognition rather than free chat. Thus, reliably grasping users’ intentions in ConvXAI systems still presents a challenge, because there is a broad range of XAI methods to map requests onto and each of them can have multiple slots to take care of. In order to bridge this gap, we present CoXQL, the first dataset for user intent recognition in ConvXAI, covering 31 intents, seven of which require filling additional slots. Subsequently, we enhance an existing parsing approach by incorporating template validations, and conduct an evaluation of several LLMs on CoXQL using different parsing strategies. We conclude that the improved parsing approach (MP+) surpasses the performance of previous approaches. We also discover that intents with multiple slots remain highly challenging for LLMs.

arxiv情報

著者 Qianli Wang,Tatiana Anikina,Nils Feldhus,Simon Ostermann,Sebastian Möller
発行日 2024-06-12 11:27:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク