Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction

要約

現在のデジタル化の時代では、ほとんどの現実世界のシナリオにおいて、知識を取得して効果的に表現することが極めて重要です。
この文脈において、ナレッジ グラフは、適切に相互接続された解釈可能な構造で膨大な量の情報を取得および整理するための強力なツールを表します。
ただし、その生成は依然として困難であり、多くの場合、多大な人間の労力とドメインの専門知識が必要となり、さまざまなアプリケーション分野にわたる拡張性と柔軟性が妨げられます。
この論文では、ナレッジ グラフ構築におけるすべての主要な重要な問題に対処できる、GPT-3.5 などの最新の生成大規模言語モデルの可能性を活用する、革新的なナレッジ グラフ生成アプローチを提案します。
このアプローチは、生成プロセスの主要段階で新しい反復ゼロショット戦略と外部知識に依存しない戦略で構成されるパイプラインで伝達されます。
私たちのユニークな多様なアプローチは、科学界に大きな利益をもたらす可能性があります。
特に、主な貢献は次のように要約できます。(i) 最終グラフの関連コンポーネントを抽出するよう大規模な言語モデルを反復的に促す革新的な戦略。
(ii) 各プロンプトに対するゼロショット戦略。これは、プロンプトの結果を「導く」ための例を提供する必要がないことを意味します。
(iii) LLM の採用により、外部リソースや人間の専門知識が不要になるため、スケーラブルなソリューション。
提案したモデルの有効性を評価するために、特定のドメインをカバーするデータセットで実験を実行しました。
私たちの提案は、スケーラブルで汎用性の高いナレッジ グラフの構築に適したソリューションであり、さまざまな新しい状況に適用できる可能性があると主張します。

要約(オリジナル)

In the current digitalization era, capturing and effectively representing knowledge is crucial in most real-world scenarios. In this context, knowledge graphs represent a potent tool for retrieving and organizing a vast amount of information in a properly interconnected and interpretable structure. However, their generation is still challenging and often requires considerable human effort and domain expertise, hampering the scalability and flexibility across different application fields. This paper proposes an innovative knowledge graph generation approach that leverages the potential of the latest generative large language models, such as GPT-3.5, that can address all the main critical issues in knowledge graph building. The approach is conveyed in a pipeline that comprises novel iterative zero-shot and external knowledge-agnostic strategies in the main stages of the generation process. Our unique manifold approach may encompass significant benefits to the scientific community. In particular, the main contribution can be summarized by: (i) an innovative strategy for iteratively prompting large language models to extract relevant components of the final graph; (ii) a zero-shot strategy for each prompt, meaning that there is no need for providing examples for ‘guiding’ the prompt result; (iii) a scalable solution, as the adoption of LLMs avoids the need for any external resources or human expertise. To assess the effectiveness of our proposed model, we performed experiments on a dataset that covered a specific domain. We claim that our proposal is a suitable solution for scalable and versatile knowledge graph construction and may be applied to different and novel contexts.

arxiv情報

著者 Salvatore Carta,Alessandro Giuliani,Leonardo Piano,Alessandro Sebastian Podda,Livio Pompianu,Sandro Gabriele Tiddia
発行日 2023-07-03 16:01:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク