Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic

要約

自然言語推論 (NLI) は、含意、矛盾、ニュートラルなど、2 つの文の間の論理的な関係を判断することを目的としています。
近年、深層学習モデルは NLI への一般的なアプローチになっていますが、解釈可能性と説明可能性に欠けています。
この作業では、弱教師付き論理推論による NLI の説明可能性に取り組み、説明可能な句推論 (EPR) アプローチを提案します。
私たちのモデルは、最初にフレーズを意味単位として検出し、2 つの文の対応するフレーズを整列させます。
次に、モデルは整列されたフレーズの NLI ラベルを予測し、ファジー論理式によって文ラベルを誘導します。
当社の EPR はほぼどこでも微分可能であるため、システムをエンドツーエンドでトレーニングできます。
このようにして、句の論理関係の明示的な説明を、教師付きの弱い方法で提供することができます。
さらに、そのような推論結果がテキスト説明の生成に役立つことを示します。

要約(オリジナル)

Natural language inference (NLI) aims to determine the logical relationship between two sentences, such as Entailment, Contradiction, and Neutral. In recent years, deep learning models have become a prevailing approach to NLI, but they lack interpretability and explainability. In this work, we address the explainability of NLI by weakly supervised logical reasoning, and propose an Explainable Phrasal Reasoning (EPR) approach. Our model first detects phrases as the semantic unit and aligns corresponding phrases in the two sentences. Then, the model predicts the NLI label for the aligned phrases, and induces the sentence label by fuzzy logic formulas. Our EPR is almost everywhere differentiable and thus the system can be trained end to end. In this way, we are able to provide explicit explanations of phrasal logical relationships in a weakly supervised manner. We further show that such reasoning results help textual explanation generation.

arxiv情報

著者 Zijun Wu,Zi Xuan Zhang,Atharva Naik,Zhijian Mei,Mauajama Firdaus,Lili Mou
発行日 2023-02-22 20:35:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク