Hide and Seek (HaS): A Lightweight Framework for Prompt Privacy Protection

要約

多くの企業が、ChatGPT などの大規模言語モデル (LLM) に基づくサービスの提供を開始していますが、ユーザーのプロンプトがモデルプロバイダーに公開されるため、必然的にプライバシーの懸念が生じます。
マルチパーティ コンピューテーション (MPC) を使用した安全な推論に関するこれまでの研究では、時間がかかり、通信集約型であるため、LLM アプリケーションには実用的ではないことが証明されています。
軽量の匿名化技術では、置換またはマスキングを通じてプロンプト内の個人情報を保護できますが、LLM で生成された結果で置換された機密データを回復することはできません。
このペーパーでは、最小の計算オーバーヘッドで LLM の返された結果の匿名化を解除するための小さなローカル モデルをトレーニングすることにより、匿名化技術の適用シナリオを拡張します。
HaS フレームワークを紹介します。「H(ide)」と「S(eek)」は、それぞれ、匿名化のためにプライベート エンティティを隠すことと、匿名化を解除するためにプライベート エンティティを探すという 2 つのコア プロセスを表します。
HaS のプライバシー保護パフォーマンスを定量的に評価するために、ブラックボックスとホワイトボックスの両方の敵対的モデルを提案します。
さらに、翻訳や分類タスクにおける HaS の有用性を評価するための実験を実施します。
実験結果は、HaS フレームワークがプライバシー保護と実用性の間の最適なバランスを達成していることを示しています。

要約(オリジナル)

Numerous companies have started offering services based on large language models (LLM), such as ChatGPT, which inevitably raises privacy concerns as users’ prompts are exposed to the model provider. Previous research on secure reasoning using multi-party computation (MPC) has proven to be impractical for LLM applications due to its time-consuming and communication-intensive nature. While lightweight anonymization techniques can protect private information in prompts through substitution or masking, they fail to recover sensitive data replaced in the LLM-generated results. In this paper, we expand the application scenarios of anonymization techniques by training a small local model to de-anonymize the LLM’s returned results with minimal computational overhead. We introduce the HaS framework, where ‘H(ide)’ and ‘S(eek)’ represent its two core processes: hiding private entities for anonymization and seeking private entities for de-anonymization, respectively. To quantitatively assess HaS’s privacy protection performance, we propose both black-box and white-box adversarial models. Furthermore, we conduct experiments to evaluate HaS’s usability in translation and classification tasks. The experimental findings demonstrate that the HaS framework achieves an optimal balance between privacy protection and utility.

arxiv情報

著者 Yu Chen,Tingxin Li,Huiming Liu,Yang Yu
発行日 2023-09-06 14:54:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク