Differentially Private Bias-Term only Fine-tuning of Foundation Models

要約

我々は、大規模な事前学習済みモデルの差分プライベート(DP)微調整の問題を研究している。既存の研究では、強いプライバシー制約のもとで高い精度が得られることが示されているが、計算オーバーヘッドやネットワークアーキテクチャの変更が必要となる。 我々は、DPアルゴリズムの最新精度と標準的なBiTFiTの効率性をマッチさせる、差動プライベートバイアス項微調整法(DP-BiTFiT)を提案する。DP-BiTFiTは、モデルに依存しない(ネットワークアーキテクチャを変更しない)、パラメータ効率(パラメータの約0.1%$を学習するだけ)、計算効率(時間および空間の複雑さの両方においてDPによるオーバーヘッドをほぼ除去する)である。幅広いタスクにおいて、DP-BiTFiTはDP full fine-tuningより$2, 30times$ 速く、$2, Sim 8times$ 少ないメモリを使い、標準のfull fine-tuningよりさらに高速であった。この結果、従来手法では計算が困難であった長文テキストや高解像度画像を用いた言語タスクや視覚タスクのDP微調整を可能にしました。

要約(オリジナル)

We study the problem of differentially private (DP) fine-tuning of large pre-trained models — a recent privacy-preserving approach suitable for solving downstream tasks with sensitive data. Existing work has demonstrated that high accuracy is possible under strong privacy constraint, yet requires significant computational overhead or modifications to the network architecture. We propose differentially private bias-term fine-tuning (DP-BiTFiT), which matches the state-of-the-art accuracy for DP algorithms and the efficiency of the standard BiTFiT. DP-BiTFiT is model agnostic (not modifying the network architecture), parameter efficient (only training about $0.1\%$ of the parameters), and computation efficient (almost removing the overhead caused by DP, in both the time and space complexity). On a wide range of tasks, DP-BiTFiT is $2\sim 30\times$ faster and uses $2\sim 8\times$ less memory than DP full fine-tuning, even faster than the standard full fine-tuning. This amazing efficiency enables us to conduct DP fine-tuning on language and vision tasks with long-sequence texts and high-resolution images, which were computationally difficult using existing methods.

arxiv情報

著者 Zhiqi Bu,Yu-Xiang Wang,Sheng Zha,George Karypis
発行日 2022-10-04 17:51:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG パーマリンク