Legally Binding but Unfair? Towards Assessing Fairness of Privacy Policies

要約

プライバシー ポリシーでは、データ主体にデータ保護の権利について通知し、データ管理者のデータ管理慣行について説明することが期待されています。
プライバシー ポリシーは、データ主体によって正しく解釈、理解され、信頼されている場合にのみその目的を果たします。
これは、プライバシー ポリシーが公正な方法で書かれていることを意味します。たとえば、偏向的な用語を使用しない、特定の教育を必要としない、または特定の社会的背景を想定していないなどです。
プライバシー ポリシーの公平性を評価するためのアプローチを概説します。
私たちは、基本的な法的情報源と公平性に関する研究から、情報の公平性、表現の公平性、倫理/道徳という側面がプライバシー ポリシーにどのように関連しているかを特定します。
私たちは、テキスト統計、言語的手法、人工知能に基づいて、これらの公平性の側面でポリシーを自動的に評価するオプションを提案します。
私たちは、ドイツのプライバシー ポリシーを使用して初期実験を行い、私たちのアプローチが適用できるという証拠を提供します。
私たちの実験は、公平性の 3 つの側面すべてに問題があることを示しています。
将来のプライバシー ポリシーが法的人工知能モデルのコーパスで使用される可能性があるため、これは重要です。

要約(オリジナル)

Privacy policies are expected to inform data subjects about their data protection rights and should explain the data controller’s data management practices. Privacy policies only fulfill their purpose, if they are correctly interpreted, understood, and trusted by the data subject. This implies that a privacy policy is written in a fair way, e.g., it does not use polarizing terms, does not require a certain education, or does not assume a particular social background. We outline our approach to assessing fairness in privacy policies. We identify from fundamental legal sources and fairness research, how the dimensions informational fairness, representational fairness and ethics / morality are related to privacy policies. We propose options to automatically assess policies in these fairness dimensions, based on text statistics, linguistic methods and artificial intelligence. We conduct initial experiments with German privacy policies to provide evidence that our approach is applicable. Our experiments indicate that there are issues in all three dimensions of fairness. This is important, as future privacy policies may be used in a corpus for legal artificial intelligence models.

arxiv情報

著者 Vincent Freiberger,Erik Buchmann
発行日 2024-05-08 14:47:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, K.4.m パーマリンク