Efficient Tuning of Large Language Models for Knowledge-Grounded Dialogue Generation

要約

大規模な言語モデル(LLMS)は、顕著なテキストの理解と生成能力を示しますが、トレーニングデータに含まれていない最新またはドメイン固有の知識を利用する能力がしばしば欠けています。
このギャップに対処するために、知識に基づいた対話生成のためのLLMSを微調整するための効率的な方法であるKeditを紹介します。
Keditは2つの主要なフェーズで動作します。まず、情報ボトルネックを採用して、取得した知識を学習可能なパラメーターに圧縮し、計算オーバーヘッドを最小限に抑えながら重要な情報を保持します。
第二に、軽量の知識認識アダプターは、微調整中にこれらの圧縮された知識ベクトルをLLMに統合し、モデルパラメーターの2 \%未満を更新します。
ウィキペディアのウィザードと新しく構築されたPubMed-Dialogデータセットの実験結果は、Keditが文脈的に関連する有益な応答を生成し、自動、LLMベース、および人間の評価で競争力のあるベースラインを上回ることを示しています。
このアプローチは、前提条件のLLMの強度と、動的知識を組み込むために必要な適応性を効果的に組み合わせて、医学などの分野にスケーラブルなソリューションを提示します。

要約(オリジナル)

Large language models (LLMs) demonstrate remarkable text comprehension and generation capabilities but often lack the ability to utilize up-to-date or domain-specific knowledge not included in their training data. To address this gap, we introduce KEDiT, an efficient method for fine-tuning LLMs for knowledge-grounded dialogue generation. KEDiT operates in two main phases: first, it employs an information bottleneck to compress retrieved knowledge into learnable parameters, retaining essential information while minimizing computational overhead. Second, a lightweight knowledge-aware adapter integrates these compressed knowledge vectors into the LLM during fine-tuning, updating less than 2\% of the model parameters. The experimental results on the Wizard of Wikipedia and a newly constructed PubMed-Dialog dataset demonstrate that KEDiT excels in generating contextually relevant and informative responses, outperforming competitive baselines in automatic, LLM-based, and human evaluations. This approach effectively combines the strengths of pretrained LLMs with the adaptability needed for incorporating dynamic knowledge, presenting a scalable solution for fields such as medicine.

arxiv情報

著者 Bo Zhang,Hui Ma,Dailin Li,Jian Ding,Jian Wang,Bo Xu,HongFei Lin
発行日 2025-04-10 13:54:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク