MST5 — Multilingual Question Answering over Knowledge Graphs

要約

Knowledge Graph Question Answering (KGQA) は、自然言語を使用して、グラフベースのモデルに保存されている膨大な量の知識のクエリを簡素化します。
しかし、研究は主に英語に焦点を当てており、英語を話さない人は不利な立場にあります。
一方、既存の多言語 KGQA システムは、英語システムと同等のパフォーマンスを達成する上で課題に直面しており、多様な言語から SPARQL クエリを生成することの難しさを浮き彫りにしています。
この研究では、言語コンテキストとエンティティ情報を言語モデルの処理パイプラインに直接組み込むことにより、多言語 KGQA システムを強化する簡略化されたアプローチを提案します。
補助情報を統合するために個別のエンコーダーに依存する既存の方法とは異なり、私たちの戦略は、単一の事前トレーニング済みの多言語トランスフォーマーベースの言語モデルを活用して、主要な入力と補助データの両方を管理します。
私たちの方法論は、自然言語クエリを関連する SPARQL クエリに正確に変換する言語モデルの能力を大幅に向上させます。
これは、最新の QALD データセット、つまり QALD-9-Plus および QALD-10 で有望な結果を示しています。
さらに、中国語と日本語に対するアプローチを導入および評価し、それによって既存のデータセットの言語の多様性を拡大します。

要約(オリジナル)

Knowledge Graph Question Answering (KGQA) simplifies querying vast amounts of knowledge stored in a graph-based model using natural language. However, the research has largely concentrated on English, putting non-English speakers at a disadvantage. Meanwhile, existing multilingual KGQA systems face challenges in achieving performance comparable to English systems, highlighting the difficulty of generating SPARQL queries from diverse languages. In this research, we propose a simplified approach to enhance multilingual KGQA systems by incorporating linguistic context and entity information directly into the processing pipeline of a language model. Unlike existing methods that rely on separate encoders for integrating auxiliary information, our strategy leverages a single, pretrained multilingual transformer-based language model to manage both the primary input and the auxiliary data. Our methodology significantly improves the language model’s ability to accurately convert a natural language query into a relevant SPARQL query. It demonstrates promising results on the most recent QALD datasets, namely QALD-9-Plus and QALD-10. Furthermore, we introduce and evaluate our approach on Chinese and Japanese, thereby expanding the language diversity of the existing datasets.

arxiv情報

著者 Nikit Srivastava,Mengshi Ma,Daniel Vollmers,Hamada Zahera,Diego Moussallem,Axel-Cyrille Ngonga Ngomo
発行日 2024-07-08 15:37:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク