KGLM: Integrating Knowledge Graph Structure in Language Models for Link Prediction

要約

複雑な関係を大規模に表現できるナレッジ グラフの機能により、知識表現、質問応答、推奨システムなどのさまざまなニーズにナレッジ グラフが採用されるようになりました。
ナレッジ グラフは、それが表す情報が不完全であることが多く、ナレッジ グラフを完成させるタスクが必要になります。
事前にトレーニングされ、微調整された言語モデルは、これらのタスクで有望であることが示されていますが、これらのモデルは、ナレッジ グラフにエンコードされた固有の情報、つまりエンティティと関係のタイプを無視します。
この研究では、ナレッジ グラフ言語モデル (KGLM) アーキテクチャを提案します。そこでは、特徴的なエンティティとリレーションのタイプを区別することを学習する新しいエンティティ/リレーション埋め込み層を導入し、それによってモデルがナレッジ グラフの構造を学習できるようにします。
この研究では、ナレッジ グラフから抽出されたトリプルを使用して、この追加の埋め込み層で言語モデルをさらに事前トレーニングし、その後に標準の微調整フェーズを行うことで、リンクの新しい最先端のパフォーマンスが設定されることを示します。
ベンチマーク データセットの予測タスク。

要約(オリジナル)

The ability of knowledge graphs to represent complex relationships at scale has led to their adoption for various needs including knowledge representation, question-answering, and recommendation systems. Knowledge graphs are often incomplete in the information they represent, necessitating the need for knowledge graph completion tasks. Pre-trained and fine-tuned language models have shown promise in these tasks although these models ignore the intrinsic information encoded in the knowledge graph, namely the entity and relation types. In this work, we propose the Knowledge Graph Language Model (KGLM) architecture, where we introduce a new entity/relation embedding layer that learns to differentiate distinctive entity and relation types, therefore allowing the model to learn the structure of the knowledge graph. In this work, we show that further pre-training the language models with this additional embedding layer using the triples extracted from the knowledge graph, followed by the standard fine-tuning phase sets a new state-of-the-art performance for the link prediction task on the benchmark datasets.

arxiv情報

著者 Jason Youn,Ilias Tagkopoulos
発行日 2023-05-17 16:34:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク