要約
大規模言語モデル (LLM) は、自動テキスト生成、質問応答、チャットボットなどを含む自然言語処理 (NLP) ベースのアプリケーションに革命をもたらしました。
しかし、彼らは、モデルがもっともらしく聞こえるが実際には不正確な応答を生成する幻覚という重大な課題に直面しています。
これにより、信頼が損なわれ、さまざまなドメインでの LLM の適用性が制限されます。
一方、ナレッジ グラフ (KG) は、エンティティ (ノード) とその関係 (エッジ) として表される相互接続されたファクトの構造化されたコレクションを提供します。
最近の研究では、KG は特定のトピックに関する LLM 理解のギャップを埋めるコンテキストを提供するために活用されており、LLM の幻覚を軽減する有望なアプローチを提供し、その幅広い適用性の恩恵を受けながら信頼性と精度を向上させています。
それにもかかわらず、この研究は依然として非常に活発な研究分野であり、さまざまな未解決の未解決の問題があります。
この論文では、最先端のデータセットとベンチマーク、さらには知識の統合と幻覚の評価の方法をカバーするこれらの未解決の課題について説明します。
私たちの議論では、LLM システムにおける KG の現在の使用法を検討し、これらのそれぞれの課題における将来の方向性を特定します。
要約(オリジナル)
Large Language Models (LLMs) have revolutionized Natural Language Processing (NLP) based applications including automated text generation, question answering, chatbots, and others. However, they face a significant challenge: hallucinations, where models produce plausible-sounding but factually incorrect responses. This undermines trust and limits the applicability of LLMs in different domains. Knowledge Graphs (KGs), on the other hand, provide a structured collection of interconnected facts represented as entities (nodes) and their relationships (edges). In recent research, KGs have been leveraged to provide context that can fill gaps in an LLM understanding of certain topics offering a promising approach to mitigate hallucinations in LLMs, enhancing their reliability and accuracy while benefiting from their wide applicability. Nonetheless, it is still a very active area of research with various unresolved open problems. In this paper, we discuss these open challenges covering state-of-the-art datasets and benchmarks as well as methods for knowledge integration and evaluating hallucinations. In our discussion, we consider the current use of KGs in LLM systems and identify future directions within each of these challenges.
arxiv情報
著者 | Ernests Lavrinovics,Russa Biswas,Johannes Bjerva,Katja Hose |
発行日 | 2024-11-21 16:09:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google