Offsite-Tuning: Transfer Learning without Full Model

要約

転移学習は、基礎モデルが下流のタスクに適応するために重要です。
ただし、多くの基盤モデルは独自仕様であるため、ユーザーはモデルの所有者とデータを共有してモデルを微調整する必要があります。これには費用がかかり、プライバシーの問題が生じます。
さらに、大規模な基礎モデルを微調整することは計算集約的であり、ほとんどのダウンストリーム ユーザーにとって非現実的です。
このホワイト ペーパーでは、完全なモデルにアクセスすることなく、10 億個のパラメーターの基礎モデルをダウンストリーム データに適応させることができる、プライバシーを保護する効率的な転移学習フレームワークである Offsite-Tuning を提案します。
オフサイト チューニングでは、モデル所有者が軽量アダプターと非可逆圧縮エミュレーターをデータ所有者に送信します。データ所有者は、エミュレーターの支援を受けてダウンストリーム データでアダプターを微調整します。
微調整されたアダプターはモデルの所有者に返され、モデルの所有者はそれを完全なモデルに接続して、適合した基盤モデルを作成します。
オフサイト調整は、双方のプライバシーを保護し、完全なモデルの重みへのアクセスを必要とする既存の微調整方法よりも計算効率が高くなります。
さまざまな大規模な言語およびビジョン基盤モデルに対するオフサイト チューニングの有効性を実証します。
オフサイト チューニングは、完全なモデルの微調整と同等の精度を実現しながら、プライバシーを保護し、効率的であり、6.5 倍のスピードアップと 5.6 倍のメモリ削減を実現します。
コードは https://github.com/mit-han-lab/offsite-tuning で入手できます。

要約(オリジナル)

Transfer learning is important for foundation models to adapt to downstream tasks. However, many foundation models are proprietary, so users must share their data with model owners to fine-tune the models, which is costly and raise privacy concerns. Moreover, fine-tuning large foundation models is computation-intensive and impractical for most downstream users. In this paper, we propose Offsite-Tuning, a privacy-preserving and efficient transfer learning framework that can adapt billion-parameter foundation models to downstream data without access to the full model. In offsite-tuning, the model owner sends a light-weight adapter and a lossy compressed emulator to the data owner, who then fine-tunes the adapter on the downstream data with the emulator’s assistance. The fine-tuned adapter is then returned to the model owner, who plugs it into the full model to create an adapted foundation model. Offsite-tuning preserves both parties’ privacy and is computationally more efficient than the existing fine-tuning methods that require access to the full model weights. We demonstrate the effectiveness of offsite-tuning on various large language and vision foundation models. Offsite-tuning can achieve comparable accuracy as full model fine-tuning while being privacy-preserving and efficient, achieving 6.5x speedup and 5.6x memory reduction. Code is available at https://github.com/mit-han-lab/offsite-tuning.

arxiv情報

著者 Guangxuan Xiao,Ji Lin,Song Han
発行日 2023-02-09 18:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.LG パーマリンク