要約
テキスト リソースに関する複雑な質問に答えることは、特に自然言語文内で表現される複数のエンティティ間の微妙な関係を扱う場合には依然として課題です。
この目的を達成するために、YAGO、DBpedia、Freebase、Wikidata などの厳選されたナレッジ ベース (KB) が広く使用され、過去 10 年間で質問応答 (QA) アプリケーションとして広く受け入れられてきました。
これらの KB は構造化された知識表現を提供しますが、自然言語ソースに見られる文脈上の多様性が欠けています。
この制限に対処するために、BigText-QA は統合 QA アプローチを導入しています。これは、構造化知識と非構造化 (つまり「ハイブリッド」) 知識の両方を統一された形式で編成する、より冗長な形式のナレッジ グラフ (KG) に基づいて質問に答えることができます。
グラフ表示。
これにより、BigText-QA は両方の長所を組み合わせることができます$\unicode{x2013}$構造化されたバックグラウンド KB (YAGO や Wikidata など) にマッピングされた名前付きエンティティの正規セットと、テキストのオープン セットを組み合わせることができます。
豊富なコンテキスト情報を備えた高度に多様な関係言い換えを提供する文節。
私たちの実験結果は、BigText-QA がニューラル ネットワーク ベースの QA システムである DrQA を上回り、グラフ ベースの教師なし QA システムである QUEST と競合する結果を達成することを示しています。
要約(オリジナル)
Answering complex questions over textual resources remains a challenge, particularly when dealing with nuanced relationships between multiple entities expressed within natural-language sentences. To this end, curated knowledge bases (KBs) like YAGO, DBpedia, Freebase, and Wikidata have been widely used and gained great acceptance for question-answering (QA) applications in the past decade. While these KBs offer a structured knowledge representation, they lack the contextual diversity found in natural-language sources. To address this limitation, BigText-QA introduces an integrated QA approach, which is able to answer questions based on a more redundant form of a knowledge graph (KG) that organizes both structured and unstructured (i.e., ‘hybrid’) knowledge in a unified graphical representation. Thereby, BigText-QA is able to combine the best of both worlds$\unicode{x2013}$a canonical set of named entities, mapped to a structured background KB (such as YAGO or Wikidata), as well as an open set of textual clauses providing highly diversified relational paraphrases with rich context information. Our experimental results demonstrate that BigText-QA outperforms DrQA, a neural-network-based QA system, and achieves competitive results to QUEST, a graph-based unsupervised QA system.
arxiv情報
著者 | Jingjing Xu,Maria Biryukov,Martin Theobald,Vinu Ellampallil Venugopal |
発行日 | 2023-09-07 12:22:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google