要約
大規模な言語モデル(LLM)は、汎用の自然言語処理タスクで大きな進歩を遂げています。
ただし、LLMは、電気通信のようなドメイン固有の領域に適用されると、依然として課題に直面しています。
このペーパーでは、テレコムドメインでのLLMパフォーマンスを強化するために、知識グラフ(kg)と検索の高等生成(RAG)技術を組み合わせた新しいフレームワークを紹介します。
フレームワークはKGを活用して、ネットワークプロトコル、標準、およびその他の通信関連エンティティに関する構造化されたドメイン固有の情報をキャプチャし、その関係を包括的に表現しています。
KGをRAGと統合することにより、LLMSは応答生成中に最も関連性の高い最新の知識に動的にアクセスして利用できます。
このハイブリッドアプローチは、構造化された知識表現とLLMの生成能力との間のギャップを橋渡しし、精度、適応性、およびドメイン固有の理解を大幅に向上させます。
私たちの結果は、複雑な技術的クエリに正確に対処する際のKG-RAGフレームワークの有効性を示しています。
提案されているKG-RAGモデルは、頻繁に使用される通信テレコム固有のデータセットのタスクに回答する質問に対して88%の精度を達成しましたが、LAGのみで82%、LLMのみのアプローチでは48%でした。
要約(オリジナル)
Large language models (LLMs) have made significant progress in general-purpose natural language processing tasks. However, LLMs are still facing challenges when applied to domain-specific areas like telecommunications, which demands specialized expertise and adaptability to evolving standards. This paper presents a novel framework that combines knowledge graph (KG) and retrieval-augmented generation (RAG) techniques to enhance LLM performance in the telecom domain. The framework leverages a KG to capture structured, domain-specific information about network protocols, standards, and other telecom-related entities, comprehensively representing their relationships. By integrating KG with RAG, LLMs can dynamically access and utilize the most relevant and up-to-date knowledge during response generation. This hybrid approach bridges the gap between structured knowledge representation and the generative capabilities of LLMs, significantly enhancing accuracy, adaptability, and domain-specific comprehension. Our results demonstrate the effectiveness of the KG-RAG framework in addressing complex technical queries with precision. The proposed KG-RAG model attained an accuracy of 88% for question answering tasks on a frequently used telecom-specific dataset, compared to 82% for the RAG-only and 48% for the LLM-only approaches.
arxiv情報
著者 | Dun Yuan,Hao Zhou,Di Wu,Xue Liu,Hao Chen,Yan Xin,Jianzhong,Zhang |
発行日 | 2025-03-31 15:58:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google