Disentangled Ontology Embedding for Zero-shot Learning

要約

知識グラフ(KG)とその変形であるオントロジーは、知識表現に広く用いられており、ゼロショット学習(ZSL)を補強するのに非常に有効であることが示されている。しかし、KGを利用した既存のZSL手法は、いずれもKGで表現されるクラス間関係の本質的な複雑さを無視している。あるクラスが他のクラスと異なる意味での関係を持つことはよくあることで、その典型的な例として、あるクラスが他のクラスと異なる意味での関係を持つことが挙げられる。本論文では、ZSLを補強するためのオントロジーに注目し、オントロジーの特性によって導かれる離散化オントロジー埋め込みを学習し、異なる側面におけるより細かいクラス関係を捕捉し、利用することを提案する。また、DOZSLと名付けた新しいZSLフレームワークを提案する。このフレームワークには、生成モデルとグラフ伝搬モデルに基づく2つの新しいZSLソリューションが含まれており、分離されたオントロジー埋め込みを効果的に利用することが可能である。ゼロショット画像分類(ZS-IMGC)とゼロショットKG補完(ZS-KGC)の5つのベンチマークで広範囲な評価が行われました。DOZSLはしばしば最先端技術より優れた性能を達成し、その構成要素はアブレーション研究およびケーススタディによって検証されています。我々のコードとデータセットは https://github.com/zjukg/DOZSL で公開されています。

要約(オリジナル)

Knowledge Graph (KG) and its variant of ontology have been widely used for knowledge representation, and have shown to be quite effective in augmenting Zero-shot Learning (ZSL). However, existing ZSL methods that utilize KGs all neglect the intrinsic complexity of inter-class relationships represented in KGs. One typical feature is that a class is often related to other classes in different semantic aspects. In this paper, we focus on ontologies for augmenting ZSL, and propose to learn disentangled ontology embeddings guided by ontology properties to capture and utilize more fine-grained class relationships in different aspects. We also contribute a new ZSL framework named DOZSL, which contains two new ZSL solutions based on generative models and graph propagation models, respectively, for effectively utilizing the disentangled ontology embeddings. Extensive evaluations have been conducted on five benchmarks across zero-shot image classification (ZS-IMGC) and zero-shot KG completion (ZS-KGC). DOZSL often achieves better performance than the state-of-the-art, and its components have been verified by ablation studies and case studies. Our codes and datasets are available at https://github.com/zjukg/DOZSL.

arxiv情報

著者 Yuxia Geng,Jiaoyan Chen,Wen Zhang,Yajing Xu,Zhuo Chen,Jeff Z. Pan,Yufeng Huang,Feiyu Xiong,Huajun Chen
発行日 2022-06-08 08:29:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク