要約
証拠から回答までの推論の流れを明確かつ論理的に表示することは、説明可能な質問応答 (QA) にとって重要です。
含意ツリーは線を構造的に表現するものであり、大規模言語モデルにおける自己説明原理とは異なります。
既存の方法では、ツリー構造内の階層間および階層内の文の意味的な関連性がほとんど考慮されていないため、組み合わせに明らかな間違いが発生しやすいです。
この研究では、答えを説明するためにコントローラージェネレーター (HiSCG) のフレームワークの下で文の階層的意味論を統合するアーキテクチャを提案します。
HiSCG は、仮説と事実の間の階層的なマッピングを設計し、ツリー構造に含まれる事実を識別し、単一ステップの含意を最適化します。
私たちの知る限り、改善をもたらすために同じ層と隣接する層の間の文の階層的意味論に最初に気づいたのは私たちです。
提案された方法は、EntailmentBank データセットの 3 つの設定すべてで同等のパフォーマンスを達成します。
2 つのドメイン外データセットに対する一般化の結果も、私たちの方法の有効性を示しています。
要約(オリジナル)
Manifestly and logically displaying the line of reasoning from evidence to answer is significant to explainable question answering (QA). The entailment tree exhibits the lines structurally, which is different from the self-explanation principle in large-scale language models. Existing methods rarely consider the semantic association of sentences between and within hierarchies within the tree structure, which is prone to apparent mistakes in combinations. In this work, we propose an architecture of integrating the Hierarchical Semantics of sentences under the framework of Controller-Generator (HiSCG) to explain answers. The HiSCG designs a hierarchical mapping between hypotheses and facts, discriminates the facts involved in tree constructions, and optimizes single-step entailments. To the best of our knowledge, We are the first to notice hierarchical semantics of sentences between the same layer and adjacent layers to yield improvements. The proposed method achieves comparable performance on all three settings of the EntailmentBank dataset. The generalization results on two out-of-domain datasets also demonstrate the effectiveness of our method.
arxiv情報
著者 | Qin Wang,Jianzhou Feng,Yiming Xu |
発行日 | 2024-09-26 11:46:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google