要約
Reddit のような匿名のオンライン フォーラムでは、自己開示のメリットはユーザーにとって明らかであることがよくあります (例: 義理の両親について、理解のある見知らぬ人に打ち明けることができます)。しかし、プライバシーのリスクはより抽象的です (例: 私のパートナーはそれを行うことができるかなど)。
これが私だと言いますか?)。
これまでの研究では、ユーザーがテキスト内の潜在的に危険な自己開示を特定するのに役立つ自然言語処理 (NLP) ツールの開発が試みられてきましたが、保護したいユーザー向けに設計されたものや、保護したいユーザー向けに評価されたものはありませんでした。
この評価がなければ、これらのツールは社会的技術的ギャップによって制限されることになります。ユーザーは、自己開示を完全に避けるように指示するパターナリスティックなツールではなく、情報に基づいた意思決定を支援する支援ツールを必要としています。
このギャップを埋めるために、N = 21 人の Reddit ユーザーを対象に調査を実施しました。
私たちは、彼らが執筆した 2 つの投稿で最先端の NLP 開示検出モデルを使用してもらい、モデルが役立つかどうか、どのように役立つか、どこが不足しているか、また、どのように改善すれば問題を解決できるかを理解するための質問をしました。
より多くの情報に基づいた意思決定を可能にします。
不完全さにもかかわらず、ユーザーはこのモデルに肯定的な反応を示し、間違いを発見し、気づかなかったリスクを知らせ、内省を促すのに役立つツールとしてのその使用法を強調しました。
しかし、私たちの研究はまた、プライバシーに関する意思決定をサポートする AI が有用で使いやすいものであるためには、投稿のコンテキスト、開示規範、ユーザーの実際の脅威モデルを考慮し、検出されたリスクをコンテキスト化するのに役立つ説明を提供する必要があることも示しています。
要約(オリジナル)
In pseudonymous online fora like Reddit, the benefits of self-disclosure are often apparent to users (e.g., I can vent about my in-laws to understanding strangers), but the privacy risks are more abstract (e.g., will my partner be able to tell that this is me?). Prior work has sought to develop natural language processing (NLP) tools that help users identify potentially risky self-disclosures in their text, but none have been designed for or evaluated with the users they hope to protect. Absent this assessment, these tools will be limited by the social-technical gap: users need assistive tools that help them make informed decisions, not paternalistic tools that tell them to avoid self-disclosure altogether. To bridge this gap, we conducted a study with N = 21 Reddit users; we had them use a state-of-the-art NLP disclosure detection model on two of their authored posts and asked them questions to understand if and how the model helped, where it fell short, and how it could be improved to help them make more informed decisions. Despite its imperfections, users responded positively to the model and highlighted its use as a tool that can help them catch mistakes, inform them of risks they were unaware of, and encourage self-reflection. However, our work also shows how, to be useful and usable, AI for supporting privacy decision-making must account for posting context, disclosure norms, and users’ lived threat models, and provide explanations that help contextualize detected risks.
arxiv情報
著者 | Isadora Krsek,Anubha Kabra,Yao Dou,Tarek Naous,Laura A. Dabbish,Alan Ritter,Wei Xu,Sauvik Das |
発行日 | 2024-12-19 16:53:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google