Bootstrap The Original Latent: Learning a Private Model from a Black-box Model

要約

このホワイト ペーパーでは、モデル所有者のデータ/モデル プライバシーとユーザー ニーズのバランスを考慮して、バック プロパゲーテッド ブラック ボックス アダプテーション (BPBA) と呼ばれる新しい設定を提案し、ユーザーがバックのガイダンスを介してプライベート モデルをより適切にトレーニングできるようにします。
ブラックボックスの基盤/ソース モデルの伝播結果。
私たちの設定は、基盤/ソース モデルの使用を容易にするだけでなく、基盤/ソース モデルの漏洩と誤用を防ぐことができます。
さらに、Bootstrap The Original Latent (BTOL) と呼ばれる新しいトレーニング戦略を提案して、基礎/ソース モデルを十分に活用します。
私たちの戦略は、ドメイン アダプターと凍結融解戦略で構成されています。
3 つの異なるデータセットの BPBA およびブラックボックス UDA 設定で BTOL を適用します。
実験は、私たちの戦略が手動の拡張なしでさまざまな設定で効率的かつ堅牢であることを示しています。

要約(オリジナル)

In this paper, considering the balance of data/model privacy of model owners and user needs, we propose a new setting called Back-Propagated Black-Box Adaptation (BPBA) for users to better train their private models via the guidance of the back-propagated results of a Black-box foundation/source model. Our setting can ease the usage of foundation/source models as well as prevent the leakage and misuse of foundation/source models. Moreover, we also propose a new training strategy called Bootstrap The Original Latent (BTOL) to fully utilize the foundation/source models. Our strategy consists of a domain adapter and a freeze-and-thaw strategy. We apply our BTOL under BPBA and Black-box UDA settings on three different datasets. Experiments show that our strategy is efficient and robust in various settings without manual augmentations.

arxiv情報

著者 Shuai Wang,Daoan Zhang,Jianguo Zhang,Weiwei Zhang,Rui Li
発行日 2023-03-09 16:23:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク