Fast-and-Frugal Text-Graph Transformers are Effective Link Predictors

要約

リンク予測モデルは、エンティティと関係のテキスト記述を組み込むことで恩恵を受けることができ、完全な帰納的学習と動的グラフの柔軟性が可能になります。
私たちは、テキストの説明とグラフ構造を効果的に統合し、リソースを大量に消費するテキスト エンコーダーへの依存を軽減する Transformer ベースのアプローチを導入することで、エンティティのローカルな近傍とその関係に関する豊富な構造化情報も取得するという課題に取り組みます。
3 つの困難なデータセットでの実験では、Fast-and-Frugal Text-Graph (FnF-TG) Transformer が、効率とスケーラビリティを維持しながら、以前の最先端の方法と比較して優れたパフォーマンスを達成できることがわかりました。

要約(オリジナル)

Link prediction models can benefit from incorporating textual descriptions of entities and relations, enabling fully inductive learning and flexibility in dynamic graphs. We address the challenge of also capturing rich structured information about the local neighbourhood of entities and their relations, by introducing a Transformer-based approach that effectively integrates textual descriptions with graph structure, reducing the reliance on resource-intensive text encoders. Our experiments on three challenging datasets show that our Fast-and-Frugal Text-Graph (FnF-TG) Transformers achieve superior performance compared to the previous state-of-the-art methods, while maintaining efficiency and scalability.

arxiv情報

著者 Andrei C. Coman,Christos Theodoropoulos,Marie-Francine Moens,James Henderson
発行日 2024-08-13 10:04:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク