Friendly Neighbors: Contextualized Sequence-to-Sequence Link Prediction

要約

ナレッジ グラフ (KG) におけるリンク予測 (LP) のための単純なシーケンス間モデルである KGT5 コンテキストを提案します。
私たちの研究は、KG のテキスト機能を活用し、モデル サイズが小さく、スケーラブルな最近の LP モデルである KGT5 を拡張しています。
ただし、優れた予測パフォーマンスを達成するために、KGT5 はナレッジ グラフ埋め込みモデルを使用したアンサンブルに依存していますが、それ自体が大きすぎて使用コストがかかります。
この短い論文では、コンテキスト情報、つまりクエリ頂点の直接の近傍に関する情報を追加すると、良好なパフォーマンスを得るために別個の KGE モデルの必要性が軽減されることを経験的に示します。
結果として得られる KGT5 コンテキスト モデルは、実験研究において最先端のパフォーマンスを実現すると同時に、モデル サイズを大幅に削減します。

要約(オリジナル)

We propose KGT5-context, a simple sequence-to-sequence model for link prediction (LP) in knowledge graphs (KG). Our work expands on KGT5, a recent LP model that exploits textual features of the KG, has small model size, and is scalable. To reach good predictive performance, however, KGT5 relies on an ensemble with a knowledge graph embedding model, which itself is excessively large and costly to use. In this short paper, we show empirically that adding contextual information – i.e., information about the direct neighborhood of a query vertex – alleviates the need for a separate KGE model to obtain good performance. The resulting KGT5-context model obtains state-of-the-art performance in our experimental study, while at the same time reducing model size significantly.

arxiv情報

著者 Adrian Kochsiek,Apoorv Saxena,Inderjeet Nair,Rainer Gemulla
発行日 2023-05-22 14:16:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SI, I.2 パーマリンク