要約
大規模な言語モデル(LLM)は、さまざまなタスクで顕著な機能を実証していますが、ドメイン固有のタスクでエラーを引き起こしています。
パフォーマンスをさらに向上させるために、KSOD(LLMS On Demandの知識サプリメント)を提案します。これは、知識ベースの監視された微調整(SFT)でLLMSが能力を改善できるようにする新しいフレームワークです。
KSODは、エラーにつながる可能性のあるLLMの潜在的な欠落知識を識別することにより、知識不足の観点からエラーの原因を分析します。
その後、KSODは知識データセットの知識モジュールを調整し、LLMにそれに基づいて特定された知識がないかどうかを確認します。
知識が検証されている場合、KSODは知識モジュールを使用して特定された知識をLLMに補完します。
特定のタスクの代わりに特定の知識でLLMを調整し、2つのドメイン固有のベンチマークと4つの一般的なベンチマークでのタスクと知識と実験を分離し、KSODが他のタスクでのパフォーマンスを維持しながら補足された知識を必要とするタスクでのLLMSのパフォーマンスを強化することを実証的に示しています。
私たちの発見は、知識ベースのSFTを使用してLLMSの機能を改善する可能性を明らかにしました。
要約(オリジナル)
Large Language Models (LLMs) have demonstrated remarkable capabilities in various tasks, yet still produce errors in domain-specific tasks. To further improve their performance, we propose KSOD (Knowledge Supplement for LLMs On Demand), a novel framework that empowers LLMs to improve their capabilities with knowledge-based supervised fine-tuning (SFT). KSOD analyzes the causes of errors from the perspective of knowledge deficiency by identifying potential missing knowledge in LLM that may lead to the errors. Subsequently, KSOD tunes a knowledge module on knowledge dataset and verifies whether the LLM lacks the identified knowledge based on it. If the knowledge is verified, KSOD supplements the LLM with the identified knowledge using the knowledge module. Tuning LLMs on specific knowledge instead of specific task decouples task and knowledge and our experiments on two domain-specific benchmarks and four general benchmarks empirically demonstrate that KSOD enhances the performance of LLMs on tasks requiring the supplemented knowledge while preserving their performance on other tasks. Our findings shed light on the potential of improving the capabilities of LLMs with knowledge-based SFT.
arxiv情報
著者 | Haoran Li,Junfeng Hu |
発行日 | 2025-03-10 17:17:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google