Language Model Analysis for Ontology Subsumption Inference

要約

タイトル:オントロジーの包含推論のための言語モデル分析
要約:

– 背景:言語モデル(LM)が知識ベース(KB)として機能するかどうかを調査する研究が最近注目を集めている。
– 問題点:これまでの研究では、単純な三元組に基づくKBに焦点が当てられており、より洗練された論理ベースの概念的KBであるOWLオントロジーなどが省略されている。
– 本研究:OntoLAMAという推論ベースのプロービングタスクと、複雑な概念を含むオントロジー包含公理から成るデータセットを提案し、LMのオントロジーに対する知識を調査する。異なるドメインやスケールのオントロジーについて広範な実験を行い、結果として、LMがSubsumption Inference(SI)の背景知識を相対的に少なくエンコードするが、サンプルの数が少ない場合にはSIを大幅に改善することができることが示された。
– 貢献:OntoLAMAのコードとデータセットをオープンソース化することで、今後の研究に貢献する。

要約(オリジナル)

Investigating whether pre-trained language models (LMs) can function as knowledge bases (KBs) has raised wide research interests recently. However, existing works focus on simple, triple-based, relational KBs, but omit more sophisticated, logic-based, conceptualised KBs such as OWL ontologies. To investigate an LM’s knowledge of ontologies, we propose OntoLAMA, a set of inference-based probing tasks and datasets from ontology subsumption axioms involving both atomic and complex concepts. We conduct extensive experiments on ontologies of different domains and scales, and our results demonstrate that LMs encode relatively less background knowledge of Subsumption Inference (SI) than traditional Natural Language Inference (NLI) but can improve on SI significantly when a small number of samples are given. We will open-source our code and datasets.

arxiv情報

著者 Yuan He,Jiaoyan Chen,Ernesto Jiménez-Ruiz,Hang Dong,Ian Horrocks
発行日 2023-05-02 16:06:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LO パーマリンク