InterroLang: Exploring NLP Models and Datasets through Dialogue-based Explanations

要約

最近開発された NLP 説明可能手法では、さまざまな方法でブラック ボックスを開くことができますが (Madsen et al., 2022)、この取り組みに欠けている要素は、会話型インターフェイスを提供する対話型ツールです。
このような対話システムは、ユーザーが文脈に応じた説明付きでデータセットやモデルを探索するのに役立ちます。
説明やフォローアップの質問、自然言語インターフェイスを通じて。
会話型説明フレームワーク TalkToModel (Slack et al., 2022) を NLP ドメインに適応させ、フリーテキストの合理化などの新しい NLP 固有の操作を追加し、3 つの NLP タスク (対話行為の分類、質問応答、ヘイト) に関する一般化可能性を示します。
音声検出)。
説明を求めるユーザーのクエリを認識するために、微調整された少数ショットのプロンプト モデルを評価し、新しいアダプター ベースのアプローチを実装します。
次に、(1) 対話の認識された正確さと有用性、(2) シミュレーション可能性、つまり、モデルの予測ラベルが表示されていないときに人間がそれを理解する際に、対話による説明が客観的にどの程度役立つかについて、2 つのユーザー調査を実施します。
合理化と特徴の帰属がモデルの動作を説明するのに役立つことがわかりました。
さらに、ユーザーは 1 回限りの説明ではなく、説明ダイアログに基づいてモデルの結果をより確実に予測できます。

要約(オリジナル)

While recently developed NLP explainability methods let us open the black box in various ways (Madsen et al., 2022), a missing ingredient in this endeavor is an interactive tool offering a conversational interface. Such a dialogue system can help users explore datasets and models with explanations in a contextualized manner, e.g. via clarification or follow-up questions, and through a natural language interface. We adapt the conversational explanation framework TalkToModel (Slack et al., 2022) to the NLP domain, add new NLP-specific operations such as free-text rationalization, and illustrate its generalizability on three NLP tasks (dialogue act classification, question answering, hate speech detection). To recognize user queries for explanations, we evaluate fine-tuned and few-shot prompting models and implement a novel Adapter-based approach. We then conduct two user studies on (1) the perceived correctness and helpfulness of the dialogues, and (2) the simulatability, i.e. how objectively helpful dialogical explanations are for humans in figuring out the model’s predicted label when it’s not shown. We found rationalization and feature attribution were helpful in explaining the model behavior. Moreover, users could more reliably predict the model outcome based on an explanation dialogue rather than one-off explanations.

arxiv情報

著者 Nils Feldhus,Qianli Wang,Tatiana Anikina,Sahil Chopra,Cennet Oguz,Sebastian Möller
発行日 2023-10-09 10:27:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC パーマリンク