Self-Consistent Narrative Prompts on Abductive Natural Language Inference

要約

誘拐は、物語の理解や日常の状況についての推論にとって重要であると長い間考えられてきました。
アブダクティブ自然言語推論 ($\alpha$NLI) タスクが提案されており、この物語テキストベースのタスクは、2 つの観察が与えられた候補から最ももっともらしい仮説を推論することを目的としています。
ただし、文間の一貫性とモデルの一貫性は、このタスクに関するこれまでの研究では十分に活用されていませんでした。
この研究では、自己一貫性と文間の一貫性を考慮したプロンプト調整モデル $\alpha$-PACE を提案します。
さらに、入力の物語のコンテキストを理解する際に事前トレーニングされた言語モデルを導くために、さまざまな物語のシーケンス(例、線形物語や逆年代)を考慮した一般的な自己矛盾のないフレームワークを提案します。
$\alpha$-PACE の必要性と有効性を説明するために、私たちは広範な実験と徹底したアブレーション研究を行っています。
私たちの手法のパフォーマンスは、広範な競合ベースラインに対して大幅な改善を示しています。

要約(オリジナル)

Abduction has long been seen as crucial for narrative comprehension and reasoning about everyday situations. The abductive natural language inference ($\alpha$NLI) task has been proposed, and this narrative text-based task aims to infer the most plausible hypothesis from the candidates given two observations. However, the inter-sentential coherence and the model consistency have not been well exploited in the previous works on this task. In this work, we propose a prompt tuning model $\alpha$-PACE, which takes self-consistency and inter-sentential coherence into consideration. Besides, we propose a general self-consistent framework that considers various narrative sequences (e.g., linear narrative and reverse chronology) for guiding the pre-trained language model in understanding the narrative context of input. We conduct extensive experiments and thorough ablation studies to illustrate the necessity and effectiveness of $\alpha$-PACE. The performance of our method shows significant improvement against extensive competitive baselines.

arxiv情報

著者 Chunkit Chan,Xin Liu,Tsz Ho Chan,Jiayang Cheng,Yangqiu Song,Ginny Wong,Simon See
発行日 2023-09-15 10:48:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク