要約
ソーシャルメディアやビデオ会議技術で画像を変更するフィルターが普及するにつれ、人工知能 (AI) を使用して他者に対する認識を操作することの倫理的および心理的影響についての懸念が生じています。
この研究では、外見を変えるテクノロジーの一種であるぼかしフィルターが、他者に対する個人の行動に及ぼす潜在的な影響を特に調査します。
私たちの調査結果は、外見がぼやけている個人に向けられた利己的な行動が大幅に増加していることを一貫して示しており、ぼかしフィルターが離人化を通じて道徳的離脱を促進する可能性があることを示唆しています。
これらの結果は、透明性、同意、他者による外見操作の対象であるという認識の問題など、他者に対する私たちの認識を変える AI テクノロジーを巡る広範な倫理的議論の必要性を強調しています。
私たちはまた、そのような技術が広く普及する前に、責任あるガイドラインや政策の開発に情報を提供するための先行実験の重要性を強調します。
要約(オリジナル)
The increasing prevalence of image-altering filters on social media and video conferencing technologies has raised concerns about the ethical and psychological implications of using Artificial Intelligence (AI) to manipulate our perception of others. In this study, we specifically investigate the potential impact of blur filters, a type of appearance-altering technology, on individuals’ behavior towards others. Our findings consistently demonstrate a significant increase in selfish behavior directed towards individuals whose appearance is blurred, suggesting that blur filters can facilitate moral disengagement through depersonalization. These results emphasize the need for broader ethical discussions surrounding AI technologies that modify our perception of others, including issues of transparency, consent, and the awareness of being subject to appearance manipulation by others. We also emphasize the importance of anticipatory experiments in informing the development of responsible guidelines and policies prior to the widespread adoption of such technologies.
arxiv情報
著者 | Nils Köbis,Philipp Lorenz-Spreen,Tamer Ajaj,Jean-Francois Bonnefon,Ralph Hertwig,Iyad Rahwan |
発行日 | 2023-06-07 14:53:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google