要約
大規模言語モデルに関するプライバシー研究における最近の研究では、現実世界のオンライン テキストから個人データを推測する際に人間レベルに近いパフォーマンスを達成することが示されています。
モデルの機能が一貫して増加しているため、既存のテキスト匿名化手法は現在、規制要件や敵対的な脅威に対応できていません。
このため、オンライン テキストを共有する際に個人が個人データを効果的に保護するにはどうすればよいかという問題が生じます。
この研究では、この質問に答えるために 2 つの手順を実行します。まず、敵対的な LLM 推論に直面して匿名化を評価するための新しい設定を提示します。これにより、以前の指標の欠点の一部を修正しながら、匿名化パフォーマンスの自然な測定が可能になります。
次に、LLM の強力な推論機能を活用して匿名化手順を知らせる、LLM ベースの敵対的匿名化フレームワークを紹介します。
私たちの実験的評価では、現実世界のテキストと合成オンライン テキストで、結果として得られる実用性とプライバシーの両方の点で、敵対的匿名化が現在の業界グレードの匿名化よりも優れていることを示します。
要約(オリジナル)
Recent work in privacy research on large language models has shown that they achieve near human-level performance at inferring personal data from real-world online texts. With consistently increasing model capabilities, existing text anonymization methods are currently lacking behind regulatory requirements and adversarial threats. This raises the question of how individuals can effectively protect their personal data in sharing online texts. In this work, we take two steps to answer this question: We first present a new setting for evaluating anonymizations in the face of adversarial LLMs inferences, allowing for a natural measurement of anonymization performance while remedying some of the shortcomings of previous metrics. We then present our LLM-based adversarial anonymization framework leveraging the strong inferential capabilities of LLMs to inform our anonymization procedure. In our experimental evaluation, we show on real-world and synthetic online texts how adversarial anonymization outperforms current industry-grade anonymizers both in terms of the resulting utility and privacy.
arxiv情報
著者 | Robin Staab,Mark Vero,Mislav Balunović,Martin Vechev |
発行日 | 2024-02-21 14:44:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google