要約
嘘をついたり、感情をごまかしたりすることは、人間同士の交流において非常によくあることです。リスクはありますが、多くの場合、そのような行動は社会的利益をもたらします。
近年、ユーザーに対して感情を偽ったり、欺瞞的な行動をとったりするソーシャルロボットやチャットボットが数多く登場しています。
本稿では、そのようなロボットやチャットボットの例をいくつか紹介し、その倫理的側面を分析します。
ある種の嘘や欺瞞的な行動が正当化される可能性がある 3 つのシナリオが示されています。
次に、欺瞞的な行動に対する 5 つのアプローチ (欺瞞なし、露骨な欺瞞、巧妙な欺瞞、ナッジ、自己欺瞞) について議論し、その影響を分析します。
最後に、ソーシャル ロボットやチャットボットに欺瞞を組み込むには、ローカライズされた文化固有のソリューションを開発する必要があると主張します。
要約(オリジナル)
Telling lies and faking emotions is quite common in human-human interactions: though there are risks, in many situations such behaviours provide social benefits. In recent years, there have been many social robots and chatbots that fake emotions or behave deceptively with their users. In this paper, I present a few examples of such robots and chatbots, and analyze their ethical aspects. Three scenarios are presented where some kind of lying or deceptive behaviour might be justified. Then five approaches to deceptive behaviours – no deception, blatant deception, tactful deception, nudging, and self deception – are discussed and their implications are analyzed. I conclude by arguing that we need to develop localized and culture-specific solutions to incorporating deception in social robots and chatbots.
arxiv情報
著者 | Bipin Indurkhya |
発行日 | 2023-10-19 14:26:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google