要約
最近の文献では、$ \ textit {差別的に私的な自然言語処理} $(DP NLP)でかなりの増加が見られました。
これには、DPテキストの民営化が含まれます。ここでは、潜在的に機密の入力テキストがDPの下で変換され、理想的には機密情報$ \ TextIT {および} $をマスクする民営化された出力テキストを実現します。
DPテキストの民営化におけるオープンな課題に対処するための継続的な作業にもかかわらず、このテクノロジーのユーザー認識に対処する作業が不足しています。これは、実際の採用に対する最終的な障壁として機能する重要な側面です。
この作業では、世界中の721のレイパーソンを使用した調査研究を実施し、$ \ textit {sinario} $、$ \ textit {data sensitivity} $、$ \ textit {メカニズムタイプ} $、および$ \ textit {データ収集の理由} $のユーザー好みに影響を与える方法を調査します。
これらすべての要因がプライバシーの決定に影響を与えるのに役割を果たしている一方で、ユーザーはプライベート出力テキストのユーティリティと一貫性に非常に敏感であることがわかります。
私たちの調査結果は、DP NLPの研究で考慮しなければならない社会技術的要因を強調し、今後のさらなるユーザーベースの調査への扉を開きます。
要約(オリジナル)
Recent literature has seen a considerable uptick in $\textit{Differentially Private Natural Language Processing}$ (DP NLP). This includes DP text privatization, where potentially sensitive input texts are transformed under DP to achieve privatized output texts that ideally mask sensitive information $\textit{and}$ maintain original semantics. Despite continued work to address the open challenges in DP text privatization, there remains a scarcity of work addressing user perceptions of this technology, a crucial aspect which serves as the final barrier to practical adoption. In this work, we conduct a survey study with 721 laypersons around the globe, investigating how the factors of $\textit{scenario}$, $\textit{data sensitivity}$, $\textit{mechanism type}$, and $\textit{reason for data collection}$ impact user preferences for text privatization. We learn that while all these factors play a role in influencing privacy decisions, users are highly sensitive to the utility and coherence of the private output texts. Our findings highlight the socio-technical factors that must be considered in the study of DP NLP, opening the door to further user-based investigations going forward.
arxiv情報
著者 | Stephen Meisenbacher,Alexandra Klymenko,Alexander Karpp,Florian Matthes |
発行日 | 2025-03-12 12:33:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google