HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale Supervision

要約

説明可能なマルチホップ質問応答 (QA) は、回答を予測するだけでなく、根拠も特定します。
e.
回答を導き出すために使用される入力文のサブセット。
この問題は、解答と理論的根拠の両方の注釈が与えられる教師あり設定の下で広範囲に研究されてきました。
理論的根拠の注釈は収集に費用がかかり、常に利用できるわけではないため、最近の努力は理論的根拠の監視に依存しない方法の開発に注がれています。
ただし、このような方法では、複数の文書にわたる推論はもちろん、文間の対話をモデル化する能力も限られています。
この研究では、理論的監視なしで説明可能なマルチホップ QA システムをトレーニングするための原則に基づいた確率論的なアプローチを提案しています。
私たちのアプローチは、根拠をセットとして明示的にモデル化することでマルチホップ推論を実行し、モデルが文書と文書内の文の間の相互作用をキャプチャできるようにします。
実験結果は、私たちのアプローチは、回答の予測において同様の精度を維持しながら、根拠の選択においては以前の方法よりも正確であることを示しています。

要約(オリジナル)

Explainable multi-hop question answering (QA) not only predicts answers but also identifies rationales, i. e. subsets of input sentences used to derive the answers. This problem has been extensively studied under the supervised setting, where both answer and rationale annotations are given. Because rationale annotations are expensive to collect and not always available, recent efforts have been devoted to developing methods that do not rely on supervision for rationales. However, such methods have limited capacities in modeling interactions between sentences, let alone reasoning across multiple documents. This work proposes a principled, probabilistic approach for training explainable multi-hop QA systems without rationale supervision. Our approach performs multi-hop reasoning by explicitly modeling rationales as sets, enabling the model to capture interactions between documents and sentences within a document. Experimental results show that our approach is more accurate at selecting rationales than the previous methods, while maintaining similar accuracy in predicting answers.

arxiv情報

著者 Wenting Zhao,Justin T. Chiu,Claire Cardie,Alexander M. Rush
発行日 2023-05-23 16:53:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク