要約
タイトル:人間の直感は属性推測に対する防御手段となるのか?
要約:
– 公開されている情報を分析して隠された情報を明らかにする「属性推測」は、機械学習技術の進歩により、プライバシーに対する主要な脅威となっている。
– この脅威に対する防御策の1つとして、公開されている情報を戦略的に変更して、プライベートな情報を保護する方法がある。
– しかし、属性推測からプライバシーを保護するための人間の能力を評価した結果、AIに比べて効果が劣ることが判明した。
– 3つの属性(作者の性別、写真の撮影国、ソーシャルネットワークのリンク)について調査し、人間がその情報を変更しても、AIに比べて属性を隠すことができなかった。
– さらに、人間が属性を隠すために公開されている情報を変更する際に、AIに比べて大きな影響を与えるような変更を行わない傾向があったことから、人間は推測アルゴリズムにとって重要なデータの側面を認識することができないと考えられる。
– 以上の結果から、AI時代において、人間の直感に頼ることでプライバシーを保護することの限界が明らかになり、アルゴリズム的なサポートが必要であることが強調された。
要約(オリジナル)
Attribute inference – the process of analyzing publicly available data in order to uncover hidden information – has become a major threat to privacy, given the recent technological leap in machine learning. One way to tackle this threat is to strategically modify one’s publicly available data in order to keep one’s private information hidden from attribute inference. We evaluate people’s ability to perform this task, and compare it against algorithms designed for this purpose. We focus on three attributes: the gender of the author of a piece of text, the country in which a set of photos was taken, and the link missing from a social network. For each of these attributes, we find that people’s effectiveness is inferior to that of AI, especially when it comes to hiding the attribute in question. Moreover, when people are asked to modify the publicly available information in order to hide these attributes, they are less likely to make high-impact modifications compared to AI. This suggests that people are unable to recognize the aspects of the data that are critical to an inference algorithm. Taken together, our findings highlight the limitations of relying on human intuition to protect privacy in the age of AI, and emphasize the need for algorithmic support to protect private information from attribute inference.
arxiv情報
著者 | Marcin Waniek,Navya Suri,Abdullah Zameek,Bedoor AlShebli,Talal Rahwan |
発行日 | 2023-04-24 06:54:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI