Language Model Analysis for Ontology Subsumption Inference

要約

事前訓練された言語モデル (LM) は、さまざまな自然言語処理 (NLP) ドメインで大きな進歩を遂げましたが、オントロジーの正式なセマンティクスをどの程度推論できるかは不明です。オントロジーは、概念的な知識を表し、スキーマとして機能するためによく使用されます。
データグラフの。
オントロジーに関する LM の知識を調査するために、原子的概念と複雑な概念の両方を含むオントロジー包摂公理からの一連の推論ベースの調査タスクとデータセットである OntoLAMA を提案します。
さまざまなドメインとスケールのオントロジーについて広範な実験を行った結果、LM がエンコードする従属推論 (SI) の背景知識は、従来の自然言語推論 (NLI) よりも比較的少ないが、サンプル数が少ない場合は SI を大幅に改善できることが示されました。
与えられた。
コードとデータセットをオープンソース化します。

要約(オリジナル)

Pre-trained language models (LMs) have made significant advances in various Natural Language Processing (NLP) domains, but it is unclear to what extent they can infer formal semantics in ontologies, which are often used to represent conceptual knowledge and serve as the schema of data graphs. To investigate an LM’s knowledge of ontologies, we propose OntoLAMA, a set of inference-based probing tasks and datasets from ontology subsumption axioms involving both atomic and complex concepts. We conduct extensive experiments on ontologies of different domains and scales, and our results demonstrate that LMs encode relatively less background knowledge of Subsumption Inference (SI) than traditional Natural Language Inference (NLI) but can improve on SI significantly when a small number of samples are given. We will open-source our code and datasets.

arxiv情報

著者 Yuan He,Jiaoyan Chen,Ernesto Jiménez-Ruiz,Hang Dong,Ian Horrocks
発行日 2023-02-14 00:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LO パーマリンク