要約
Foundation Models を使用して自然言語を SQL (NL2SQL) に変換する現在のタスクは目覚ましい成果を上げていますが、これらのアプローチを自然言語からグラフ クエリ言語 (NL2GQL) に変換するために適用することは、SQL と比較した GQL の独特な性質と、多様な機能に起因するハードルに直面しています。
GQL の形式。
従来のルールベースおよびスロット充填手法から脱却し、タスクのランク付け、書き換え、調整のために大小両方の基盤モデルを統合する新しいアプローチ $R^3$-NL2GQL を導入します。
この方法では、初期のランキングおよび書き換え段階では小規模なモデルの解釈上の強みを活用し、自然言語クエリを GQL 形式に最終的に変換する場合には、大規模なモデルの優れた一般化とクエリ生成能力を活用します。
この新興分野におけるデータセットの不足に対処するために、私たちはグラフ データベース マニュアルと厳選されたオープンソースのナレッジ グラフ (KG) をソースとしたバイリンガル データセットを開発しました。
このデータセットに対するこの方法論の評価により、その有望な有効性と堅牢性が実証されました。
要約(オリジナル)
While current tasks of converting natural language to SQL (NL2SQL) using Foundation Models have shown impressive achievements, adapting these approaches for converting natural language to Graph Query Language (NL2GQL) encounters hurdles due to the distinct nature of GQL compared to SQL, alongside the diverse forms of GQL. Moving away from traditional rule-based and slot-filling methodologies, we introduce a novel approach, $R^3$-NL2GQL, integrating both small and large Foundation Models for ranking, rewriting, and refining tasks. This method leverages the interpretative strengths of smaller models for initial ranking and rewriting stages, while capitalizing on the superior generalization and query generation prowess of larger models for the final transformation of natural language queries into GQL formats. Addressing the scarcity of datasets in this emerging field, we have developed a bilingual dataset, sourced from graph database manuals and selected open-source Knowledge Graphs (KGs). Our evaluation of this methodology on this dataset demonstrates its promising efficacy and robustness.
arxiv情報
著者 | Yuhang Zhou,Yu He,Siyu Tian,Yuchen Ni,Zhangyue Yin,Xiang Liu,Chuanjun Ji,Sen Liu,Xipeng Qiu,Guangnan Ye,Hongfeng Chai |
発行日 | 2024-07-01 14:59:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google