The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support

要約

深刻な苦痛を経験している人々は、メンタルヘルス サポート ツールとして大規模言語モデル (LLM) チャットボットを使用することが増えています。
ソーシャル メディアでの議論では、エンゲージメントが一部の人にとって命を救ったことが説明されていますが、汎用 LLM チャットボットにも、責任を持って設計されなければユーザーの福祉を危険にさらす可能性がある顕著なリスクがあることが証拠によって示唆されています。
この研究では、メンタルヘルス サポートのために LLM チャットボットを使用した人々の実体験を調査します。
私たちは、世界的に多様な背景を持つ 21 人の個人へのインタビューに基づいて、ユーザーがチャットボットに独自のサポートの役割をどのように作成し、日常のケアのギャップを埋め、チャットボットからのサポートを求める際に関連する文化的制限をどのように乗り越えているかを分析しました。
私たちは効果的なサポートを中心とした心理療法文献の分析を基礎にし、治療的調整、つまり AI をメンタルヘルスの状況における治療的価値と調整するという概念を導入します。
私たちの研究は、デザイナーがメンタルヘルスケアにおける LLM チャットボットやその他の AI メンタルヘルス サポート ツールの倫理的かつ効果的な使用にどのようにアプローチできるかについての推奨事項を提供します。

要約(オリジナル)

People experiencing severe distress increasingly use Large Language Model (LLM) chatbots as mental health support tools. Discussions on social media have described how engagements were lifesaving for some, but evidence suggests that general-purpose LLM chatbots also have notable risks that could endanger the welfare of users if not designed responsibly. In this study, we investigate the lived experiences of people who have used LLM chatbots for mental health support. We build on interviews with 21 individuals from globally diverse backgrounds to analyze how users create unique support roles for their chatbots, fill in gaps in everyday care, and navigate associated cultural limitations when seeking support from chatbots. We ground our analysis in psychotherapy literature around effective support, and introduce the concept of therapeutic alignment, or aligning AI with therapeutic values for mental health contexts. Our study offers recommendations for how designers can approach the ethical and effective use of LLM chatbots and other AI mental health support tools in mental health care.

arxiv情報

著者 Inhwa Song,Sachin R. Pendse,Neha Kumar,Munmun De Choudhury
発行日 2024-01-25 18:08:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC パーマリンク