IncogniText: Privacy-enhancing Conditional Text Anonymization via LLM-based Private Attribute Randomization

要約

本研究では、テキストの匿名化の問題を扱う。その目的は、テキストの有用性、すなわち意味やセマンティクスを維持したまま、敵が作者のプライベート属性を正しく推測することを防ぐことである。我々は、潜在的な敵対者に誤ったプライベート属性値を予測させるようにテキストを匿名化する技術であるIncogniTextを提案する。我々の実証評価では、8つの異なるプライベート属性において、プライベート属性の漏洩を90%以上削減することができた。最後に、IncogniTextの匿名化機能をデバイス上のモデルに関連付けられたLoRAパラメータのセットに集約することで、実世界のアプリケーションに対するIncogniTextの成熟度を実証します。私たちの結果は、実用性への影響を抑えながら、プライバシー漏洩を半分以上削減できる可能性を示しています。

要約(オリジナル)

In this work, we address the problem of text anonymization where the goal is to prevent adversaries from correctly inferring private attributes of the author, while keeping the text utility, i.e., meaning and semantics. We propose IncogniText, a technique that anonymizes the text to mislead a potential adversary into predicting a wrong private attribute value. Our empirical evaluation shows a reduction of private attribute leakage by more than 90% across 8 different private attributes. Finally, we demonstrate the maturity of IncogniText for real-world applications by distilling its anonymization capability into a set of LoRA parameters associated with an on-device model. Our results show the possibility of reducing privacy leakage by more than half with limited impact on utility.

arxiv情報

著者 Ahmed Frikha,Nassim Walha,Krishna Kanth Nakka,Ricardo Mendes,Xue Jiang,Xuebing Zhou
発行日 2025-02-02 16:51:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG パーマリンク