要約
プライバシーは人権である。個人が、自分のデータが不適切に収集されたり、分析されたり、あるいは危害を加えるために利用されたりすることを恐れることなく、オンラインでもオフラインでも自由に議論に参加し、グループに参加し、人間関係を形成できることを保証するものである。プライバシーの保護は、特に計算社会科学(CSS)、人工知能(AI)、データサイエンスの領域において、新しい洞察を得るために個人のデータに依存することから、研究において重要な要素として浮上してきました。なぜなら、不適切に使用された場合、プライバシー権を侵害し、個人(特に社会的弱者)や社会に悪影響を及ぼす可能性があるからである。我々はすでに、ChatGPTのような大規模言語モデル(LLM)の出現によって、多くのプライバシー問題が浮上するのを目撃しており、プライバシーを最初から組み込むことの重要性をさらに実証している。この記事は、プライバシーの役割と、CSS、AI、データサイエンス、および関連領域で働く研究者が直面しそうな問題について議論することで、この分野に貢献する。そして、研究デザイン、データの収集と使用、分析、研究結果の普及において、参加者のプライバシーが確実に守られるようにするために、研究者が考慮すべきいくつかの重要な点を提示する。
要約(オリジナル)
Privacy is a human right. It ensures that individuals are free to engage in discussions, participate in groups, and form relationships online or offline without fear of their data being inappropriately harvested, analyzed, or otherwise used to harm them. Preserving privacy has emerged as a critical factor in research, particularly in the computational social science (CSS), artificial intelligence (AI) and data science domains, given their reliance on individuals’ data for novel insights. The increasing use of advanced computational models stands to exacerbate privacy concerns because, if inappropriately used, they can quickly infringe privacy rights and lead to adverse effects for individuals — especially vulnerable groups — and society. We have already witnessed a host of privacy issues emerge with the advent of large language models (LLMs), such as ChatGPT, which further demonstrate the importance of embedding privacy from the start. This article contributes to the field by discussing the role of privacy and the issues that researchers working in CSS, AI, data science and related domains are likely to face. It then presents several key considerations for researchers to ensure participant privacy is best preserved in their research design, data collection and use, analysis, and dissemination of research results.
arxiv情報
著者 | Keenan Jones,Fatima Zahrah,Jason R. C. Nurse |
発行日 | 2024-06-03 14:32:04+00:00 |
arxivサイト | arxiv_id(pdf) |