Harnessing Multiple Large Language Models: A Survey on LLM Ensemble

要約

LLM Ensembleは、それぞれが個々の強みから利益を得るために、それぞれが下流の推論中にユーザークエリを処理することを目的とした複数の大規模な言語モデル(LLM)を包括的に使用することを含む – 最近かなりの注目を集めています。
LLMの広範な可用性は、さまざまな強みとすぐに使用できる使いやすさと相まって、LLMアンサンブルの分野を大きく進めてきました。
このペーパーでは、LLMアンサンブルの最近の開発に関する最初の系統的レビューを紹介します。
まず、LLMアンサンブルの分類法を紹介し、いくつかの関連する研究問題について議論します。
次に、「アンサンブルの前にインクラフィング、アンサンブル – during-during-after-after-after-inference」の幅広いカテゴリの下で、メソッドのより詳細な分類を提供し、すべての関連する方法を確認します。
最後に、関連するベンチマークとアプリケーションを紹介し、既存の研究を要約し、いくつかの将来の研究の方向性を提案します。
LLMアンサンブルに関する論文のキュレーションリストは、https://github.com/junchenzhi/awesome-llm-ensembleで入手できます。

要約(オリジナル)

LLM Ensemble — which involves the comprehensive use of multiple large language models (LLMs), each aimed at handling user queries during downstream inference, to benefit from their individual strengths — has gained substantial attention recently. The widespread availability of LLMs, coupled with their varying strengths and out-of-the-box usability, has profoundly advanced the field of LLM Ensemble. This paper presents the first systematic review of recent developments in LLM Ensemble. First, we introduce our taxonomy of LLM Ensemble and discuss several related research problems. Then, we provide a more in-depth classification of the methods under the broad categories of ‘ensemble-before-inference, ensemble-during-inference, ensemble-after-inference”, and review all relevant methods. Finally, we introduce related benchmarks and applications, summarize existing studies, and suggest several future research directions. A curated list of papers on LLM Ensemble is available at https://github.com/junchenzhi/Awesome-LLM-Ensemble.

arxiv情報

著者 Zhijun Chen,Jingzheng Li,Pengpeng Chen,Zhuoran Li,Kai Sun,Yuankai Luo,Qianren Mao,Dingqi Yang,Hailong Sun,Philip S. Yu
発行日 2025-05-15 16:08:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク