DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer

要約

大規模言語モデル (LLM) は、特にプロンプ​​ト チューニングによって特定のターゲットに合わせて調整された場合、さまざまなタスクのための主要なツールとして登場しました。
それにもかかわらず、調整されたプロンプトが機密の個人情報に依存しているため、データ プライバシーをめぐる懸念が障害となっています。
実際的な解決策は、ローカル LLM をホストし、データを使用してソフト プロンプトをプライベートに最適化することです。
ただし、モデルの所有権が保護されている場合、ローカル モデルのホストには問題が生じます。
トレーニングのためにモデルのプロバイダーにデータを送信するなどの代替方法では、信頼できないプロバイダーが直面するプライバシーの問題がさらに深刻になります。
このペーパーでは、この課題に対処するための Differentially-Private Offsite Prompt Tuning (DP-OPT) と呼ばれる新しいソリューションを紹介します。
私たちのアプローチには、クライアント側で個別のプロンプトを調整し、それを目的のクラウド モデルに適用することが含まれます。
LLM 自体によって提案されたプロンプトは、パフォーマンスを大幅に損なうことなく転送できることを示します。
プロンプトから個人情報が漏洩しないようにするために、プライベート デモンストレーションを使用したインコンテキスト学習の差分プライベート (DP) アンサンブルによる、最初のプライベート プロンプト生成メカニズムを導入します。
DP-OPT を使用すると、Vicuna-7b によるプライバシー保護プロンプトの生成により、GPT3.5 での非プライベート インコンテキスト学習やローカル プライベート プロンプト チューニングと比較して、競争力のあるパフォーマンスを得ることができます。
コードは https://github.com/VITA-Group/DP-OPT で入手できます。

要約(オリジナル)

Large Language Models (LLMs) have emerged as dominant tools for various tasks, particularly when tailored for a specific target by prompt tuning. Nevertheless, concerns surrounding data privacy present obstacles due to the tuned prompts’ dependency on sensitive private information. A practical solution is to host a local LLM and optimize a soft prompt privately using data. Yet, hosting a local model becomes problematic when model ownership is protected. Alternative methods, like sending data to the model’s provider for training, intensify these privacy issues facing an untrusted provider. In this paper, we present a novel solution called Differentially-Private Offsite Prompt Tuning (DP-OPT) to address this challenge. Our approach involves tuning a discrete prompt on the client side and then applying it to the desired cloud models. We demonstrate that prompts suggested by LLMs themselves can be transferred without compromising performance significantly. To ensure that the prompts do not leak private information, we introduce the first private prompt generation mechanism, by a differentially-private (DP) ensemble of in-context learning with private demonstrations. With DP-OPT, generating privacy-preserving prompts by Vicuna-7b can yield competitive performance compared to non-private in-context learning on GPT3.5 or local private prompt tuning. Codes are available at https://github.com/VITA-Group/DP-OPT .

arxiv情報

著者 Junyuan Hong,Jiachen T. Wang,Chenhui Zhang,Zhangheng Li,Bo Li,Zhangyang Wang
発行日 2024-03-17 23:16:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク