Which questions should I answer? Salience Prediction of Inquisitive Questions

要約

探究的な質問(人が読書をする際にする、オープンエンドで好奇心主導の質問)は、談話処理(Kehler and Rohde, 2017; Onea, 2016)や理解(Prince, 2004)に不可欠な要素である。NLPの最近の研究では、LLMの質問生成機能を利用して、幅広いアプリケーションを強化している。しかし、詮索好きな質問の空間は広大で、与えられた文脈から多くの質問を呼び起こすことができる。では、どれを優先して答えを見つけるべきなのだろうか?言語理論は残念ながら、この問いに対する答えをまだ提供していない。本論文では、QSALIENCEを紹介する。QSALIENCEは、好奇心旺盛な質問のサリエンスを予測するものである。QSALIENCEは、1,766の(文脈と質問)ペアの言語学者注釈付きサリエンススコアのデータセットに対してインストラクションチューニングされている。その質問に答えることで、テキストの理解が大きく深まる場合、その質問はサリエンススコアが高くなる(Van Rooy, 2003)。我々は、潜在的な質問(Onea, 2016)と議論中の質問(Roberts, 2012)の橋渡しをすることで、顕著性の高い質問が同じ記事で回答される可能性が経験的に高いことを示す。さらに、顕著な質問に答えることがニュースにおける要約の質の指標であることを示すことで、我々の発見を検証する。

要約(オリジナル)

Inquisitive questions — open-ended, curiosity-driven questions people ask as they read — are an integral part of discourse processing (Kehler and Rohde, 2017; Onea, 2016) and comprehension (Prince, 2004). Recent work in NLP has taken advantage of question generation capabilities of LLMs to enhance a wide range of applications. But the space of inquisitive questions is vast: many questions can be evoked from a given context. So which of those should be prioritized to find answers? Linguistic theories, unfortunately, have not yet provided an answer to this question. This paper presents QSALIENCE, a salience predictor of inquisitive questions. QSALIENCE is instruction-tuned over our dataset of linguist-annotated salience scores of 1,766 (context, question) pairs. A question scores high on salience if answering it would greatly enhance the understanding of the text (Van Rooy, 2003). We show that highly salient questions are empirically more likely to be answered in the same article, bridging potential questions (Onea, 2016) with Questions Under Discussion (Roberts, 2012). We further validate our findings by showing that answering salient questions is an indicator of summarization quality in news.

arxiv情報

著者 Yating Wu,Ritika Mangla,Alexandros G. Dimakis,Greg Durrett,Junyi Jessy Li
発行日 2024-10-03 17:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク