要約
タイトル:グラフニューラルネットワークを用いたサブグラフ案内型知識グラフ質問生成に向けて
要約:
– Knowledge graph (KG) question generation (QG)は、KGとそれに対応する回答から自然言語の質問を生成することを目的とする。
– 以前の研究は、単一のKGトリプルから質問を生成する単純な設定に焦点を当てていた。
– 本研究では、より現実的な設定である、KGサブグラフから質問を生成することを目的としている。
– 以前の研究の多くは、線形化されたKGサブグラフをエンコードするために、RNNベースまたはTransformerベースのモデルを構築していたが、これはKGサブグラフの明示的な構造情報を完全に破棄していた。
– この問題に対処するために、双方向Graph2Seqモデルを適用して、KGサブグラフをエンコードすることを提案する。
– さらに、RNNデコーダーをノードレベルのコピー機構で強化して、KGサブグラフからノード属性を直接出力の質問にコピーすることを可能にする。
– 自動評価と人間の評価結果の両方が、当社のモデルが2つのQGベンチマークで既存の方法に比べて有意な改善をもたらすことを示している。
– 実験結果は、当社のQGモデルがデータ拡張の手段としてQAタスクに一貫して利益をもたらすことを示している。
要約(オリジナル)
Knowledge graph (KG) question generation (QG) aims to generate natural language questions from KGs and target answers. Previous works mostly focus on a simple setting which is to generate questions from a single KG triple. In this work, we focus on a more realistic setting where we aim to generate questions from a KG subgraph and target answers. In addition, most of previous works built on either RNN-based or Transformer based models to encode a linearized KG sugraph, which totally discards the explicit structure information of a KG subgraph. To address this issue, we propose to apply a bidirectional Graph2Seq model to encode the KG subgraph. Furthermore, we enhance our RNN decoder with node-level copying mechanism to allow directly copying node attributes from the KG subgraph to the output question. Both automatic and human evaluation results demonstrate that our model achieves new state-of-the-art scores, outperforming existing methods by a significant margin on two QG benchmarks. Experimental results also show that our QG model can consistently benefit the Question Answering (QA) task as a mean of data augmentation.
arxiv情報
著者 | Yu Chen,Lingfei Wu,Mohammed J. Zaki |
発行日 | 2023-05-01 03:15:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI