A Different Level Text Protection Mechanism With Differential Privacy

要約

この記事では、BERT 事前学習モデルに基づいて重要度の異なる単語を抽出する方法を紹介し、この方法の有効性を証明します。
この記事では、重要度の異なる単語に対して同じ摂動結果を維持することが、テキスト ユーティリティ全体に及ぼす影響についても説明しています。
この方法は長いテキストの保護に適用できます。

要約(オリジナル)

The article introduces a method for extracting words of different degrees of importance based on the BERT pre-training model and proves the effectiveness of this method. The article also discusses the impact of maintaining the same perturbation results for words of different importance on the overall text utility. This method can be applied to long text protection.

arxiv情報

著者 Qingwen Fu
発行日 2024-09-05 17:13:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク