Pay More Attention to Relation Exploration for Knowledge Base Question Answering

要約

タイトル:知識ベースの質問応答において関係性の探索をより重視する

要約:
– 知識ベースの質問応答(KBQA)は、大規模な知識ベースから正しい回答を取得することを目的としている難しいタスクである。現在の取り組みは、主にエンティティの表現と最終的な回答推論に焦点を当てており、このタスクに対する限られた監視結果となっている。
– さらに、理論的には推論パスの選択を決定する関係性は、最近の進歩で十分に考慮されていない。本研究では、知識ベースに含まれる関係性を利用してエンティティの表現を強化し、追加の監視を導入する新しいフレームワークRE-KBQAを提案する。
– 関係性からの3つのアプローチについて探究する。それらは以下の通り。
1. 関係性の重要性を学習するために変分グラフ自己符号化器を用いることにより、類似するエンティティを区別する。
2. マルチタスクスキーマを用いて関係性の分布をソフトラベルとして予測することにより、追加の監視を行う。
3. リランキングアルゴリズムを設計し、ポストプロセッシング用に関係性によるガイドを行うことにより、関係性に基づくリランキングアルゴリズムを設計する。
– 二つのベンチマークデータセットでの実験結果は、我々のフレームワークの効果と優秀性を示し、CWQにおいてF1スコアを40.5から46.3まで、WebQSP において62.8から68.5まで改善し、最新の方法と同等またはそれを上回っている。

要約(オリジナル)

Knowledge base question answering (KBQA) is a challenging task that aims to retrieve correct answers from large-scale knowledge bases. Existing attempts primarily focus on entity representation and final answer reasoning, which results in limited supervision for this task. Moreover, the relations, which empirically determine the reasoning path selection, are not fully considered in recent advancements. In this study, we propose a novel framework, RE-KBQA, that utilizes relations in the knowledge base to enhance entity representation and introduce additional supervision. We explore guidance from relations in three aspects, including (1) distinguishing similar entities by employing a variational graph auto-encoder to learn relation importance; (2) exploring extra supervision by predicting relation distributions as soft labels with a multi-task scheme; (3) designing a relation-guided re-ranking algorithm for post-processing. Experimental results on two benchmark datasets demonstrate the effectiveness and superiority of our framework, improving the F1 score by 5.7% from 40.5 to 46.3 on CWQ and 5.8% from 62.8 to 68.5 on WebQSP, better or on par with state-of-the-art methods.

arxiv情報

著者 Yong Cao,Xianzhi Li,Huiwen Liu,Wen Dai,Shuai Chen,Bin Wang,Min Chen,Daniel Hershcovich
発行日 2023-05-03 13:48:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク