Identification of Entailment and Contradiction Relations between Natural Language Sentences: A Neurosymbolic Approach

要約

自然言語推論 (NLI) は、テキスト含意の認識 (RTE) とも呼ばれ、自然言語理解の重要な側面です。
現在、ほとんどの研究では機械学習と深層学習を使用して、特定のデータセットに対してこのタスクを実行しています。つまり、その解決策は説明可能でも明示的でもありません。
RTE に対する説明可能なアプローチの必要性に対処するために、テキストを抽象意味表現 (AMR) グラフに変換することに基づく新しいパイプラインを提案します。
このために、事前トレーニングされた AMR パーサーを使用します。
次に、AMR グラフを命題論理に変換し、自動推論のために SAT ソルバーを使用します。
文章では、多くの場合、前提と請求項の間に含意 (または矛盾) 関係が成立することが常識的に示唆されていますが、異なる表現が使用されているため、論理表現からはこれが特定されません。
これに対処するために、いくつかの命題を置き換えたり忘れたりできるようにする緩和方法を導入します。
実験結果は、このパイプラインが 4 つの RTE データセットで良好に動作することを示しています。

要約(オリジナル)

Natural language inference (NLI), also known as Recognizing Textual Entailment (RTE), is an important aspect of natural language understanding. Most research now uses machine learning and deep learning to perform this task on specific datasets, meaning their solution is not explainable nor explicit. To address the need for an explainable approach to RTE, we propose a novel pipeline that is based on translating text into an Abstract Meaning Representation (AMR) graph. For this we use a pre-trained AMR parser. We then translate the AMR graph into propositional logic and use a SAT solver for automated reasoning. In text, often commonsense suggests that an entailment (or contradiction) relationship holds between a premise and a claim, but because different wordings are used, this is not identified from their logical representations. To address this, we introduce relaxation methods to allow replacement or forgetting of some propositions. Our experimental results show this pipeline performs well on four RTE datasets.

arxiv情報

著者 Xuyao Feng,Anthony Hunter
発行日 2024-05-02 13:06:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2 パーマリンク