要約
このペーパーでは、マージされた言語モデルにおける技術的な語彙の統合を調査します。
一般的な目的の言語固有のモデルとドメイン固有のモデルを組み合わせて、結果のモデルの技術用語の理解に焦点を当てたときの知識伝達メカニズムを探ります。
私たちの実験では、このマージプロセスが専門用語の処理におけるターゲットモデルの習熟度に対する影響を分析します。
マージモデルのパフォーマンスの定量的評価を提示し、個々の構成モデルのパフォーマンスと比較します。
調査結果は、ドメイン固有の知識を高めるためのさまざまなモデルマージ方法の有効性に関する洞察を提供し、自然言語処理における言語間知識移転のためのこれらの方法を活用する潜在的な課題と将来の方向性を強調します。
要約(オリジナル)
This paper investigates the integration of technical vocabulary in merged language models. We explore the knowledge transfer mechanisms involved when combining a general-purpose language-specific model with a domain-specific model, focusing on the resulting model’s comprehension of technical jargon. Our experiments analyze the impact of this merging process on the target model’s proficiency in handling specialized terminology. We present a quantitative evaluation of the performance of the merged model, comparing it with that of the individual constituent models. The findings offer insights into the effectiveness of different model merging methods for enhancing domain-specific knowledge and highlight potential challenges and future directions in leveraging these methods for cross-lingual knowledge transfer in Natural Language Processing.
arxiv情報
著者 | Thibault Rousset,Taisei Kakibuchi,Yusuke Sasaki,Yoshihide Nomura |
発行日 | 2025-02-17 16:39:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google