Explainable and Accurate Natural Language Understanding for Voice Assistants and Beyond

要約

共同インテント検出とスロット充填 (共同 NLU (自然言語理解) とも呼ばれる) は、スマート音声アシスタントにとって非常に貴重です。
この分野における最近の進歩は、さまざまな技術を使用して精度を向上させることに重点を置いています。
説明可能性は、結合 NLU モデルを含む深層学習ベースのモデルにとって間違いなく重要な側面です。
説明可能性がなければ、彼らの決定は外の世界に対して不透明であるため、ユーザーの信頼を欠く傾向があります。
したがって、このギャップを埋めるために、フルジョイント NLU モデルを、精度を犠牲にすることなく粒度レベルで「本質的に」説明可能になるように変換します。
さらに、完全結合 NLU モデルを説明可能にすることで、この拡張が他の一般的な分類タスクでも問題なく使用できることを示します。
感情分析と固有表現認識を使用してこれを実証します。

要約(オリジナル)

Joint intent detection and slot filling, which is also termed as joint NLU (Natural Language Understanding) is invaluable for smart voice assistants. Recent advancements in this area have been heavily focusing on improving accuracy using various techniques. Explainability is undoubtedly an important aspect for deep learning-based models including joint NLU models. Without explainability, their decisions are opaque to the outside world and hence, have tendency to lack user trust. Therefore to bridge this gap, we transform the full joint NLU model to be `inherently’ explainable at granular levels without compromising on accuracy. Further, as we enable the full joint NLU model explainable, we show that our extension can be successfully used in other general classification tasks. We demonstrate this using sentiment analysis and named entity recognition.

arxiv情報

著者 Kalpa Gunaratna,Vijay Srinivasan,Hongxia Jin
発行日 2023-09-25 19:30:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク