要約
計算リソースが限られているため、ほとんどの大規模な言語モデル(LLMS)開発者は、独自のデータで小言語モデル(SLM)のみを微調整できます。
これらのプライベートSLMは通常、有効性が制限されています。
プライベートSLMのパフォーマンスを高めるために、このペーパーでは、一般的なLLMSに助けを求めることを提案しています。
一般的なLLMは、開発者が余裕がある推論にかかるAPIまたはより大きなLLMである可能性があります。
具体的には、Private SLMがプロセス報酬のガイドの下で一般的なLLMと共同推論を適応的に実行するGブーストフレームワークを提案します。
実験は、私たちのフレームワークがプライベートSLMのパフォーマンスを大幅に向上させることができることを示しています。
要約(オリジナル)
Due to the limited computational resources, most Large Language Models (LLMs) developers can only fine-tune Small Language Models (SLMs) on their own data. These private SLMs typically have limited effectiveness. To boost the performance of private SLMs, this paper proposes to ask general LLMs for help. The general LLMs can be APIs or larger LLMs whose inference cost the developers can afford. Specifically, we propose the G-Boost framework where a private SLM adaptively performs collaborative inference with a general LLM under the guide of process reward. Experiments demonstrate that our framework can significantly boost the performance of private SLMs.
arxiv情報
著者 | Yijiang Fan,Yuren Mao,Longbin Lai,Ying Zhang,Zhengping Qian,Yunjun Gao |
発行日 | 2025-03-13 13:47:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google