A Comprehensive Evaluation of the Copy Mechanism for Natural Language to SPARQL Query Generation

要約

【タイトル】 自然言語からSPARQLクエリの生成のためのコピーメカニズムの包括的評価

【要約】 近年、SPARQLクエリの生成のための神経機械翻訳(NMT)の分野は著しい成長を見せている。この論文では、従来のエンコーダーデコーダーアーキテクチャーにコピーメカニズムを組み込むことや、事前学習されたエンコーダーデコーダーの使用によって新しい性能基準が設定されている。この論文では、事前学習されたモデルと非事前学習モデル、質問注釈形式、コピーメカニズムの使用など、多種多様な実験を行い、最近のNMTベースのSPARQL生成研究を複製して拡張する。結果は、コピーメカニズムを追加するか、質問注釈を使用することで、非事前学習モデルと事前学習モデルの両方で性能を向上させ、三つの人気データセットに対して新しい基準を設定したことを示している。

【要点】

– 近年、NMTによるSPARQLクエリ生成の分野は成長している
– コピーメカニズムをエンコーダーデコーダーアーキテクチャーに組み込んだり、事前学習されたモデルを使用したりすることによって性能向上が見られた
– 質問注釈形式やコピーメカニズムの使用など、多種多様な実験を行い、従来研究を拡張している
– コピーメカニズムを追加するか、質問注釈を使用することで、非事前学習モデルと事前学習モデルの両方で性能が向上した
– この論文の結果は、三つの人気データセットに対して新しい基準を設定したことを示している。

要約(オリジナル)

In recent years, the field of neural machine translation (NMT) for SPARQL query generation has witnessed a significant growth. Recently, the incorporation of the copy mechanism with traditional encoder-decoder architectures and the use of pre-trained encoder-decoders have set new performance benchmarks. This paper presents a large variety of experiments that replicate and expand upon recent NMT-based SPARQL generation studies, comparing pre-trained and non-pre-trained models, question annotation formats, and the use of a copy mechanism for non-pre-trained and pre-trained models. Our results show that either adding the copy mechanism or using a question annotation improves performances for nonpre-trained models and for pre-trained models, setting new baselines for three popular datasets.

arxiv情報

著者 Samuel Reyd,Amal Zouaq,Papa Abdou Karim Karou Diallo
発行日 2023-04-16 13:12:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.LG パーマリンク