From Parse-Execute to Parse-Execute-Refine: Improving Semantic Parser for Complex Question Answering over Knowledge Base

要約

タイトル: セマンティックパーサーの改良による知識ベース上の複雑な質問応答の改善

要約:
– セマンティックパーサーによって質問を実行可能な論理形式に解析することは、知識ベース(KBQA)質問応答において印象的な結果を示してきた。
– しかし、複雑なKBQAは、複数のステップにわたる複雑な推論を必要とするより困難なタスクである。
– 最近提案されたKoPLと呼ばれる新しいセマンティックパーサーは、推論プロセスを明示的にモデル化することで、複数のステップにわたる複雑なKBQAにおいて最先端の結果を達成した。
– 本論文では、簡単なParse-Execute-Refineパラダイムによってセマンティックパーサーの推論能力を向上させる方法についてさらに探求する。
– 提案された三つのコンポーネント(解析ステージ、実行ステージ、改良ステージ)によって、複雑な推論の能力を向上させる。
– 実験により、提案されたPER-KBQAが複雑なKBQAにおいて最先端のベースラインよりも優れた結果を示すことが分かった。

要約(オリジナル)

Parsing questions into executable logical forms has showed impressive results for knowledge-base question answering (KBQA). However, complex KBQA is a more challenging task that requires to perform complex multi-step reasoning. Recently, a new semantic parser called KoPL has been proposed to explicitly model the reasoning processes, which achieved the state-of-the-art on complex KBQA. In this paper, we further explore how to unlock the reasoning ability of semantic parsers by a simple proposed parse-execute-refine paradigm. We refine and improve the KoPL parser by demonstrating the executed intermediate reasoning steps to the KBQA model. We show that such simple strategy can significantly improve the ability of complex reasoning. Specifically, we propose three components: a parsing stage, an execution stage and a refinement stage, to enhance the ability of complex reasoning. The parser uses the KoPL to generate the transparent logical forms. Then, the execution stage aligns and executes the logical forms over knowledge base to obtain intermediate reasoning processes. Finally, the intermediate step-by-step reasoning processes are demonstrated to the KBQA model in the refinement stage. With the explicit reasoning processes, it is much easier to answer the complex questions. Experiments on benchmark dataset shows that the proposed PER-KBQA performs significantly better than the stage-of-the-art baselines on the complex KBQA.

arxiv情報

著者 Wangzhen Guo,Linyin Luo,Hanjiang Lai,Jian Yin
発行日 2023-05-05 08:20:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク