Markov Process-Based Graph Convolutional Networks for Entity Classification in Knowledge Graphs

要約

ナレッジ グラフ (KG) には膨大な量の情報がエンコードされているにもかかわらず、エンティティのクラス所属に関する情報は不完全なままであることがよくあります。
グラフ畳み込みネットワーク (GCN) は、KG 内のエンティティのクラス所属に関する完全な情報の効果的な予測子であることが示されています。
ただし、これらのモデルは、タスクの複雑さを組み込んだ KG 内のエンティティのクラスへの所属を学習しないため、モデルの予測機能に悪影響を及ぼします。
この問題に対処するために、マルコフ プロセス ベースのアーキテクチャをよく知られた GCN アーキテクチャに導入します。
このエンドツーエンドのネットワークは、マルコフ プロセス内の KG 内のエンティティのクラス所属の予測を学習します。
計算ステップ数は、トレーニング中に幾何分布を使用して学習されます。
同時に、損失関数は証拠学習の分野からの洞察を組み合わせます。
実験では、いくつかの研究対象のアーキテクチャとデータセットにおいて、既存のモデルと比較してパフォーマンスが向上していることが示されています。
幾何学的分布に対して選択したハイパーパラメータに基づいて、予想される計算ステップ数を調整して、トレーニング中の効率と精度を向上させることができます。

要約(オリジナル)

Despite the vast amount of information encoded in Knowledge Graphs (KGs), information about the class affiliation of entities remains often incomplete. Graph Convolutional Networks (GCNs) have been shown to be effective predictors of complete information about the class affiliation of entities in KGs. However, these models do not learn the class affiliation of entities in KGs incorporating the complexity of the task, which negatively affects the models prediction capabilities. To address this problem, we introduce a Markov process-based architecture into well-known GCN architectures. This end-to-end network learns the prediction of class affiliation of entities in KGs within a Markov process. The number of computational steps is learned during training using a geometric distribution. At the same time, the loss function combines insights from the field of evidential learning. The experiments show a performance improvement over existing models in several studied architectures and datasets. Based on the chosen hyperparameters for the geometric distribution, the expected number of computation steps can be adjusted to improve efficiency and accuracy during training.

arxiv情報

著者 Johannes Mäkelburg,Yiwen Peng,Mehwish Alam,Tobias Weller,Maribel Acosta
発行日 2024-12-27 11:49:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク