PromptCrypt: Prompt Encryption for Secure Communication with Large Language Models

要約

ChatGPT などのクラウドベースの大規模言語モデル (LLM) は、日々の業務にますます不可欠になっており、さまざまなアプリケーションにわたる重要なツールとして機能します。
これらのモデルは、アクセシビリティと機能の点で大きな利点を提供しますが、プライバシーに関する重大な懸念も生じます。クラウド インフラストラクチャでのユーザー データの送信と保存は、データ侵害や機密情報への不正アクセスの重大なリスクをもたらします。
データの送信と保存が暗号化されている場合でも、LLM サービス プロバイダー自体がデータの実際の内容を知っているため、個人や団体がそのような LLM サービスを自信を持って使用することができません。
これらの懸念に対処するために、この文書では、ユーザーのプライバシーを保護するためのシンプルかつ効果的なメカニズム PromptCrypt を提案します。
絵文字を使用して、LLM に送信する前にユーザー入力を暗号化し、プロンプトの元の意図を保持しながら、人間や LLM の検査では解読できないようにすることで、モデルのパフォーマンスに影響を与えないようにします。
パーソナライズされたレコメンデーション、センチメント分析、表形式データ分析の 3 つのタスクについて実験を行います。
実験の結果、PromptCrypt は人間や LLM 自体による機密データの識別を防ぐ方法でプロンプト内の個人情報を暗号化できるだけでなく、さらなる調整なしで精度を維持または向上させ、同等またはそれ以上のタスク精度を達成できることが明らかになりました。
プロンプト暗号化を行わずに LLM に直接プロンプトを表示します。
これらの結果は、LLM の機能的完全性とパフォーマンスを損なうことなくユーザーのプライバシーを保護する暗号化手段を採用することの実用性を浮き彫りにしています。
コードとデータセットは https://github.com/agiresearch/PromptCrypt で入手できます。

要約(オリジナル)

Cloud-based large language models (LLMs) such as ChatGPT have increasingly become integral to daily operations, serving as vital tools across various applications. While these models offer substantial benefits in terms of accessibility and functionality, they also introduce significant privacy concerns: the transmission and storage of user data in cloud infrastructures pose substantial risks of data breaches and unauthorized access to sensitive information; even if the transmission and storage of data is encrypted, the LLM service provider itself still knows the real contents of the data, preventing individuals or entities from confidently using such LLM services. To address these concerns, this paper proposes a simple yet effective mechanism PromptCrypt to protect user privacy. It uses Emoji to encrypt the user inputs before sending them to LLM, effectively rendering them indecipherable to human or LLM’s examination while retaining the original intent of the prompt, thus ensuring the model’s performance remains unaffected. We conduct experiments on three tasks, personalized recommendation, sentiment analysis, and tabular data analysis. Experiment results reveal that PromptCrypt can encrypt personal information within prompts in such a manner that not only prevents the discernment of sensitive data by humans or LLM itself, but also maintains or even improves the precision without further tuning, achieving comparable or even better task accuracy than directly prompting the LLM without prompt encryption. These results highlight the practicality of adopting encryption measures that safeguard user privacy without compromising the functional integrity and performance of LLMs. Code and dataset are available at https://github.com/agiresearch/PromptCrypt.

arxiv情報

著者 Guo Lin,Wenyue Hua,Yongfeng Zhang
発行日 2024-02-08 17:57:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.IR, cs.LG パーマリンク