XTQA: Span-Level Explanations of the Textbook Question Answering

要約

教科書質問応答 (TQA) は、豊富なエッセイと図からなる大規模なマルチモーダルな状況を考慮して、図/非図の質問に答える必要があるタスクです。
私たちは、この課題の説明可能性を考慮すべき重要な側面として生徒を位置づけるべきであると主張します。
この問題に対処するために、私たちは、提案した粗粒度から粒度の細かいアルゴリズムに基づいて、TQA のスパンレベルの説明 (XTQA) に向けた新しいアーキテクチャを考案しました。これにより、答えだけでなく、生徒が答えを選択するためのスパンレベルの証拠も提供できます。
このアルゴリズムは、まず TF-IDF 法を使用して質問に関連する上位 $M$ 段落を大まかに選択し、次に質問に対する各スパンの情報利得を計算することによって、これらの段落内のすべての候補スパンから上位 $K$ 証拠スパンを細かく選択します。
実験結果は、XTQA がベースラインと比較して最先端のパフォーマンスを大幅に向上させることを示しています。
ソースコードは https://github.com/keep-smile-001/opentqa で入手できます。

要約(オリジナル)

Textbook Question Answering (TQA) is a task that one should answer a diagram/non-diagram question given a large multi-modal context consisting of abundant essays and diagrams. We argue that the explainability of this task should place students as a key aspect to be considered. To address this issue, we devise a novel architecture towards span-level eXplanations of the TQA (XTQA) based on our proposed coarse-to-fine grained algorithm, which can provide not only the answers but also the span-level evidences to choose them for students. This algorithm first coarsely chooses top $M$ paragraphs relevant to questions using the TF-IDF method, and then chooses top $K$ evidence spans finely from all candidate spans within these paragraphs by computing the information gain of each span to questions. Experimental results shows that XTQA significantly improves the state-of-the-art performance compared with baselines. The source code is available at https://github.com/keep-smile-001/opentqa

arxiv情報

著者 Jie Ma,Qi Chai,Jun Liu,Qingyu Yin,Pinghui Wang,Qinghua Zheng
発行日 2023-07-24 13:22:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.AI, cs.CL, I.1.2 パーマリンク