Truthful Text Sanitization Guided by Inference Attacks

要約

テキストの無害化の目的は、個人を直接的または間接的に特定する可能性のある文書内のテキスト スパンを書き換えて、個人情報が開示されないようにすることです。
テキストのサニタイズでは、個人情報の漏洩の防止 (プライバシー保護) と、ドキュメントの元のコンテンツをできるだけ保持する (ユーティリティの保護) のバランスを取る必要があります。
我々は、元のテキスト スパンの意味論的な内容を包含する、より抽象的な (ただし有益な) 用語である一般化に基づいた自動テキスト サニタイズ戦略を提案します。
このアプローチは命令調整された大規模言語モデル (LLM) に依存しており、2 つの段階に分かれています。
LLM は最初に、真実を保持する置換候補を取得し、それらを抽象化レベルに従ってランク付けするために適用されます。
これらの候補者は、LLM を使用して推論攻撃を実行することでプライバシーを保護する能力が評価されます。
最後に、システムは、これらの攻撃に耐性があることが示されている最も有益な代替品を選択します。
この 2 段階のプロセスの結果、選択された代替品は実用性とプライバシーのバランスが効果的に得られます。
また、データに手動で注釈を付けることなく、これら 2 つの側面を自動的に評価するための新しいメトリクスも提供します。
テキスト匿名化ベンチマークの実証結果は、提案されたアプローチが実用性の向上につながり、元の情報を完全に抑制する場合と比較して、保護された個人を再識別するリスクのわずかな増加のみであることを示しています。
さらに、選択された置換は、以前の方法よりも真実が保存され、抽象的であることが示されています。

要約(オリジナル)

The purpose of text sanitization is to rewrite those text spans in a document that may directly or indirectly identify an individual, to ensure they no longer disclose personal information. Text sanitization must strike a balance between preventing the leakage of personal information (privacy protection) while also retaining as much of the document’s original content as possible (utility preservation). We present an automated text sanitization strategy based on generalizations, which are more abstract (but still informative) terms that subsume the semantic content of the original text spans. The approach relies on instruction-tuned large language models (LLMs) and is divided into two stages. The LLM is first applied to obtain truth-preserving replacement candidates and rank them according to their abstraction level. Those candidates are then evaluated for their ability to protect privacy by conducting inference attacks with the LLM. Finally, the system selects the most informative replacement shown to be resistant to those attacks. As a consequence of this two-stage process, the chosen replacements effectively balance utility and privacy. We also present novel metrics to automatically evaluate these two aspects without the need to manually annotate data. Empirical results on the Text Anonymization Benchmark show that the proposed approach leads to enhanced utility, with only a marginal increase in the risk of re-identifying protected individuals compared to fully suppressing the original information. Furthermore, the selected replacements are shown to be more truth-preserving and abstractive than previous methods.

arxiv情報

著者 Ildikó Pilán,Benet Manzanares-Salor,David Sánchez,Pierre Lison
発行日 2024-12-17 14:07:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク