Prompt-Time Symbolic Knowledge Capture with Large Language Models

要約

ユーザー固有の知識で大規模言語モデル (LLM) を拡張することは、パーソナル AI アシスタントなどの実世界のアプリケーションにとって非常に重要です。
ただし、LLM にはプロンプト主導型の知識獲得のためのメカニズムが本質的に欠けています。
このペーパーでは、特にナレッジ グラフに重点を置き、既存の LLM 機能を利用してプロンプト主導型のナレッジ キャプチャを可能にする方法について調査します。
私たちは、プロンプト・トゥ・トリプル (P2T) 生成に焦点を当てることで、この課題に対処します。
ゼロショット プロンプト、少数ショット プロンプト、微調整の 3 つの方法を検討し、特殊な合成データセットを介してそれらのパフォーマンスを評価します。
私たちのコードとデータセットは https://github.com/HaltiaAI/paper-PTSKC で公開されています。

要約(オリジナル)

Augmenting large language models (LLMs) with user-specific knowledge is crucial for real-world applications, such as personal AI assistants. However, LLMs inherently lack mechanisms for prompt-driven knowledge capture. This paper investigates utilizing the existing LLM capabilities to enable prompt-driven knowledge capture, with a particular emphasis on knowledge graphs. We address this challenge by focusing on prompt-to-triple (P2T) generation. We explore three methods: zero-shot prompting, few-shot prompting, and fine-tuning, and then assess their performance via a specialized synthetic dataset. Our code and datasets are publicly available at https://github.com/HaltiaAI/paper-PTSKC.

arxiv情報

著者 Tolga Çöplü,Arto Bendiken,Andrii Skomorokhov,Eduard Bateiko,Stephen Cobb,Joshua J. Bouw
発行日 2024-02-01 08:15:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2.7 パーマリンク