要約
私たちは、オントロジー学習 (OL) に大規模言語モデル (LLM) を利用する LLMs4OL アプローチを提案します。
LLM は自然言語処理において大幅な進歩を示し、さまざまな知識領域で複雑な言語パターンを捕捉できる能力を実証しています。
私たちの LLMs4OL パラダイムは、次の仮説を調査します: \textit{LLM は、自然言語テキストから知識を自動的に抽出して構造化することを含む、言語パターン捕捉機能を OL に効果的に適用できますか?} この仮説をテストするために、ゼロ-
ショットを促す方法。
用語のタイピング、分類法の発見、非分類学的関係の抽出という 3 つの主要な OL タスクについて、9 つの異なる LLM モデル ファミリを評価します。
さらに、評価には、WordNet の語彙意味論的知識、GeoNames の地理知識、UMLS の医学知識など、さまざまなジャンルのオントロジー知識が含まれます。
要約(オリジナル)
We propose the LLMs4OL approach, which utilizes Large Language Models (LLMs) for Ontology Learning (OL). LLMs have shown significant advancements in natural language processing, demonstrating their ability to capture complex language patterns in different knowledge domains. Our LLMs4OL paradigm investigates the following hypothesis: \textit{Can LLMs effectively apply their language pattern capturing capability to OL, which involves automatically extracting and structuring knowledge from natural language text?} To test this hypothesis, we conduct a comprehensive evaluation using the zero-shot prompting method. We evaluate nine different LLM model families for three main OL tasks: term typing, taxonomy discovery, and extraction of non-taxonomic relations. Additionally, the evaluations encompass diverse genres of ontological knowledge, including lexicosemantic knowledge in WordNet, geographical knowledge in GeoNames, and medical knowledge in UMLS.
arxiv情報
著者 | Hamed Babaei Giglou,Jennifer D’Souza,Sören Auer |
発行日 | 2023-08-02 07:47:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google