QUDSELECT: Selective Decoding for Questions Under Discussion Parsing

要約

Question Under Discussion (QUD)は、暗黙の質問を用いて文と文の関係を明らかにする談話フレームワークである。QUDの構文解析では、各文が前の文脈のアンカーセンテンスによって引き起こされる質問に対する答えとみなされる。その結果得られるQUD構造は、答えの適合性(質問にどれだけうまく答えられるか)などのいくつかの理論的基準に適合する必要があり、QUD構文解析は困難な作業となる。これまでの研究では、パイプライン方式でQUD構文解析器を構築している(つまり、文脈からトリガー文を検出し、質問を生成する)。しかし、これらの構文解析器はタスクの全体的な視点を欠いており、すべての基準を満たすことはほとんどできない。本研究では、QUD基準を考慮してQUD係り受け構造を選択的にデコードする共同学習フレームワークであるQUDSELECTを紹介する。インストラクションチューニングを用いて、アンカーセンテンスを予測し、関連する質問を生成するモデルを同時に学習する。基準を明示的に組み込むために、推論中に複数のQUD候補をサンプリングし、その後、基準スコアラーを用いて最適なものを選択するという選択的解読戦略を採用する。本手法は、人間による評価で9%、自動評価で4%と、最先端のベースラインモデルを上回り、本フレームワークの有効性を実証している。

要約(オリジナル)

Question Under Discussion (QUD) is a discourse framework that uses implicit questions to reveal discourse relationships between sentences. In QUD parsing, each sentence is viewed as an answer to a question triggered by an anchor sentence in prior context. The resulting QUD structure is required to conform to several theoretical criteria like answer compatibility (how well the question is answered), making QUD parsing a challenging task. Previous works construct QUD parsers in a pipelined manner (i.e. detect the trigger sentence in context and then generate the question). However, these parsers lack a holistic view of the task and can hardly satisfy all the criteria. In this work, we introduce QUDSELECT, a joint-training framework that selectively decodes the QUD dependency structures considering the QUD criteria. Using instruction-tuning, we train models to simultaneously predict the anchor sentence and generate the associated question. To explicitly incorporate the criteria, we adopt a selective decoding strategy of sampling multiple QUD candidates during inference, followed by selecting the best one with criteria scorers. Our method outperforms the state-of-the-art baseline models by 9% in human evaluation and 4% in automatic evaluation, demonstrating the effectiveness of our framework.

arxiv情報

著者 Ashima Suvarna,Xiao Liu,Tanmay Parekh,Kai-Wei Chang,Nanyun Peng
発行日 2024-08-02 06:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク