Neural Class Expression Synthesis

要約

多くのアプリケーションでは、ナレッジ グラフで説明可能なノード分類が必要です。
この目的に向けて、一般的な「ホワイトボックス」アプローチはクラス式の学習です。肯定的なノードと否定的なノードのセットが与えられると、肯定的なノードと否定的なノードを区別する記述ロジックのクラス式が学習されます。
既存のアプローチのほとんどは、多数の候補クラス式を生成し、最適なものを選択する検索ベースのアプローチです。
ただし、適切なクラス表現を見つけるのに長い時間がかかることがよくあります。
この論文では、クラス表現学習を翻訳問題として取り上げ、ニューラルクラス表現シンセサイザーと呼ぶ新しいクラス表現学習アプローチを提案します。
トレーニング例は、機械翻訳に似た方法でクラス式に「翻訳」されます。
したがって、当社のシンセサイザーは、検索ベースのアプローチの実行時の制限を受けません。
私たちは、それぞれ LSTM、GRU、セットトランスフォーマーに基づくこの新しいアプローチファミリーの 3 つのインスタンスを研究します。
4 つのベンチマーク データセットでのアプローチの評価では、入力サンプルに関して高品質のクラス式を平均約 1 秒で効果的に合成できることがわかります。
さらに、最先端のアプローチと比較すると、大規模なデータセットでより優れた F 値が得られることがわかります。
再現性を高めるため、実装と事前トレーニング済みモデルをパブリック GitHub リポジトリ (https://github.com/dice-group/NeuralClassExpressionSynthesis) に提供しています。

要約(オリジナル)

Many applications require explainable node classification in knowledge graphs. Towards this end, a popular “white-box” approach is class expression learning: Given sets of positive and negative nodes, class expressions in description logics are learned that separate positive from negative nodes. Most existing approaches are search-based approaches generating many candidate class expressions and selecting the best one. However, they often take a long time to find suitable class expressions. In this paper, we cast class expression learning as a translation problem and propose a new family of class expression learning approaches which we dub neural class expression synthesizers. Training examples are “translated” into class expressions in a fashion akin to machine translation. Consequently, our synthesizers are not subject to the runtime limitations of search-based approaches. We study three instances of this novel family of approaches based on LSTMs, GRUs, and set transformers, respectively. An evaluation of our approach on four benchmark datasets suggests that it can effectively synthesize high-quality class expressions with respect to the input examples in approximately one second on average. Moreover, a comparison to state-of-the-art approaches suggests that we achieve better F-measures on large datasets. For reproducibility purposes, we provide our implementation as well as pretrained models in our public GitHub repository at https://github.com/dice-group/NeuralClassExpressionSynthesis

arxiv情報

著者 N’Dah Jean Kouagou,Stefan Heindorf,Caglar Demir,Axel-Cyrille Ngonga Ngomo
発行日 2024-06-13 15:36:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク