要約
大規模な言語モデル(LLMS)の最近の進歩により、自然言語処理タスクの顕著なソリューションとして配置されています。
特に、これらの問題はゼロまたは少ないショットの方法でアプローチすることができ、それにより、トレーニングまたは微調整されたタスク固有のモデルの必要性を排除することができます。
ただし、LLMSは、幻覚や時代遅れの知識の存在やトレーニングデータの特定のドメインからの情報の欠落など、いくつかの課題に直面しています。
これらの問題は、時間のかかる高価なプロセスであるため、新しいデータを使用してモデルを再トレーニングすることで簡単に解決することはできません。
これらの問題を軽減するために、知識グラフ(KG)がLLMを濃縮するための構造化された外部情報源として提案されています。
このアイデアを使用すると、この作業ではKGSを使用して、ゼロショットエンティティディスビゲーション(ED)のLLMSを強化します。
その目的のために、KGのエンティティのクラスの階層的表現を活用して、候補スペースとエンティティの説明を徐々に剪定して、追加の事実知識で入力プロンプトを豊かにします。
人気のあるEDデータセットでの評価は、提案された方法が非強化および説明のみのLLMを上回ることを示しており、タスク固有のモデルよりも高度な適応性を持っています。
さらに、エラー分析を実施し、EDパフォーマンスに対するレバレッジされたKGのセマンティック表現の影響について説明します。
要約(オリジナル)
Recent advances in Large Language Models (LLMs) have positioned them as a prominent solution for Natural Language Processing tasks. Notably, they can approach these problems in a zero or few-shot manner, thereby eliminating the need for training or fine-tuning task-specific models. However, LLMs face some challenges, including hallucination and the presence of outdated knowledge or missing information from specific domains in the training data. These problems cannot be easily solved by retraining the models with new data as it is a time-consuming and expensive process. To mitigate these issues, Knowledge Graphs (KGs) have been proposed as a structured external source of information to enrich LLMs. With this idea, in this work we use KGs to enhance LLMs for zero-shot Entity Disambiguation (ED). For that purpose, we leverage the hierarchical representation of the entities’ classes in a KG to gradually prune the candidate space as well as the entities’ descriptions to enrich the input prompt with additional factual knowledge. Our evaluation on popular ED datasets shows that the proposed method outperforms non-enhanced and description-only enhanced LLMs, and has a higher degree of adaptability than task-specific models. Furthermore, we conduct an error analysis and discuss the impact of the leveraged KG’s semantic expressivity on the ED performance.
arxiv情報
著者 | Gerard Pons,Besim Bilalli,Anna Queralt |
発行日 | 2025-05-06 06:44:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google