The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support

要約

深刻な苦痛を経験している人々は、メンタルヘルスサポートツールとして大規模な言語モデル(LLM)チャットボットをますます使用しています。
ソーシャルメディアでの議論では、関与が一部の人にとってどのように命を救うかを説明していますが、汎用LLMチャットボットには、責任を持って設計されていない場合、ユーザーの福祉を危険にさらす可能性のある顕著なリスクもあることを示唆しています。
この研究では、メンタルヘルスサポートのためにLLMチャットボットを使用した人々の生きた経験を調査します。
私たちは、世界的に多様なバックグラウンドの21人の個人とのインタビューに基づいて、ユーザーがチャットボットのユニークなサポートロールを作成し、日常のケアのギャップを埋め、チャットボットからサポートを求める際に関連する文化的制限をナビゲートする方法を分析します。
私たちは、効果的なサポートに関する心理療法の文献に分析を根拠とし、治療的アライメントの概念を紹介するか、AIをメンタルヘルスのコンテキストの治療価値と調整します。
私たちの研究では、デザイナーがメンタルヘルスケアにおけるLLMチャットボットやその他のAIメンタルヘルスサポートツールの倫理的かつ効果的な使用にアプローチする方法についての推奨事項を提供しています。

要約(オリジナル)

People experiencing severe distress increasingly use Large Language Model (LLM) chatbots as mental health support tools. Discussions on social media have described how engagements were lifesaving for some, but evidence suggests that general-purpose LLM chatbots also have notable risks that could endanger the welfare of users if not designed responsibly. In this study, we investigate the lived experiences of people who have used LLM chatbots for mental health support. We build on interviews with 21 individuals from globally diverse backgrounds to analyze how users create unique support roles for their chatbots, fill in gaps in everyday care, and navigate associated cultural limitations when seeking support from chatbots. We ground our analysis in psychotherapy literature around effective support, and introduce the concept of therapeutic alignment, or aligning AI with therapeutic values for mental health contexts. Our study offers recommendations for how designers can approach the ethical and effective use of LLM chatbots and other AI mental health support tools in mental health care.

arxiv情報

著者 Inhwa Song,Sachin R. Pendse,Neha Kumar,Munmun De Choudhury
発行日 2025-05-09 15:24:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC パーマリンク