LMFlow: An Extensible Toolkit for Finetuning and Inference of Large Foundation Models

要約

大規模な基礎モデルは、従来のアプローチをはるかに超えて一般的な人間レベルの知能を達成する優れた能力を実証しました。
この技術が AI コミュニティの注目を集め続けるにつれて、ますます多くの大規模な基礎モデルが公開されるようになりました。
ただし、これらのモデルのほとんどは、特殊なタスクのアプリケーションでは大きな欠陥があり、満足のいくパフォーマンスを得るには依然として微調整のステップが必要です。
利用可能なモデルと特殊なタスクの数が増え続けるにつれて、一般的な微調整の作業は非常に重要になります。
本稿では、この問題に対処するための最初の一歩を踏み出します。
一般的な大規模基礎モデルの微調整と推論を簡素化することを目的とした、拡張可能で軽量なツールキット LMFlow を紹介します。
LMFlow は、大規模な基礎モデルに完全な微調整ワークフローを提供し、限られたコンピューティング リソースでパーソナライズされたトレーニングをサポートします。
さらに、注意深く設計された拡張可能な API とともに、継続的な事前トレーニング、命令調整、パラメータ効率の高い微調整、アライメント調整、大規模モデル推論もサポートしています。
このツールキットは徹底的にテストされており、https://github.com/OptimalScale/LMFlow から入手できます。

要約(オリジナル)

Large foundation models have demonstrated a great ability to achieve general human-level intelligence far beyond traditional approaches. As the technique keeps attracting attention from the AI community, more and more large foundation models have become publically available. However, most of those models exhibit a major deficiency in specialized-task applications, where the step of finetuning is still required for obtaining satisfactory performance. As the number of available models and specialized tasks keeps growing, the job of general finetuning becomes highly nontrivial. In this paper, we take the first step to address this issue. We introduce an extensible and lightweight toolkit, LMFlow, which aims to simplify the finetuning and inference of general large foundation models. LMFlow offers a complete finetuning workflow for a large foundation model to support personalized training with limited computing resources. Furthermore, it supports continuous pretraining, instruction tuning, parameter-efficient finetuning, alignment tuning, and large model inference, along with carefully designed and extensible APIs. This toolkit has been thoroughly tested and is available at https://github.com/OptimalScale/LMFlow.

arxiv情報

著者 Shizhe Diao,Rui Pan,Hanze Dong,Ka Shun Shum,Jipeng Zhang,Wei Xiong,Tong Zhang
発行日 2023-06-21 17:58:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク