Large Language Models for Knowledge Graph Embedding: A Survey

要約

大規模な言語モデル(LLM)は、ワールドワイドウェブ上の多くの知識主導型アプリケーションで優れたパフォーマンスに大きな注目を集めています。これらのモデルは、数億個以上のパラメーターを大量のテキストデータでトレーニングするように設計されており、自然派を効果的に理解して生成できるようになります。
LLMSの優れたパフォーマンスが明らかになると、処理結果を改善するために、知識グラフ埋め込み(KGE)関連タスクにますます適用されています。
従来のKGE表現学習方法は、エンティティと関係を低次元ベクトル空間にマッピングし、ナレッジグラフのトリプルがベクトル空間の特定のスコアリング機能を満たすことを可能にします。
ただし、LLMSの強力な言語理解とSEMAN-TICモデリング機能に基づいて、最近、タスクの特性に応じてマルチモーダルKGE関連シナリオなど、さまざまな種類のKGE関連シナリオでさまざまな程度に呼び出されました。
この論文では、さまざまな種類のKGEシナリオでLLMS関連のタスクを実行するためのAWIDE範囲のアプローチを調査します。
さまざまなアプローチをよりよく比較するために、分類で各KGEシナリオを要約します。
最後に、メソッドが主に使用されているアプリケーションについて説明し、この新しい研究分野の開発のためのいくつかの将来の見通しの方向を提案します。

要約(オリジナル)

Large language models (LLMs) have garnered significant attention for their superior performance in many knowledge-driven applications on the world wide web.These models are designed to train hundreds of millions or more parameters on large amounts of text data, enabling them to understand and generate naturallanguage effectively. As the superior performance of LLMs becomes apparent,they are increasingly being applied to knowledge graph embedding (KGE) related tasks to improve the processing results. Traditional KGE representation learning methods map entities and relations into a low-dimensional vector space, enablingthe triples in the knowledge graph to satisfy a specific scoring function in thevector space. However, based on the powerful language understanding and seman-tic modeling capabilities of LLMs, that have recently been invoked to varying degrees in different types of KGE related scenarios such as multi-modal KGE andopen KGE according to their task characteristics. In this paper, we investigate awide range of approaches for performing LLMs-related tasks in different types of KGE scenarios. To better compare the various approaches, we summarize each KGE scenario in a classification. Finally, we discuss the applications in which the methods are mainly used and suggest several forward-looking directions for the development of this new research area.

arxiv情報

著者 Bingchen Liu,Yuanyuan Fang,Naixing Xu,Shihao Hou,Xin Li,Qian Li
発行日 2025-04-08 08:33:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク