Cactus: Towards Psychological Counseling Conversations using Cognitive Behavioral Theory

要約

近年、心理カウンセリングの需要が大幅に増加している。この急増は、カウンセラーとして大規模言語モデル(LLM)を使用することにより、カウンセリングのアクセシビリティを向上させる取り組みを加速させている。クライアントのプライバシーを確保するために、オープンソースのLLMをトレーニングすることは、現実的なカウンセリングのデータセットがないという重要な課題に直面している。これを解決するために、我々は、認知行動療法(Cognitive Behavioral Therapy: CBT)のゴール指向で構造化されたアプローチを用いて、現実の対話をエミュレートするマルチターン対話データセットであるCactusを紹介する。我々は、多様で具体的なペルソナを持つクライアントをデザインし、カウンセラーが対話の中で体系的にCBTテクニックを適用することで、多様で現実的なデータセットを作成する。データの質を評価するために、実際のカウンセリングセッションを評価するために使用される確立された心理学的基準に対してベンチマークを行い、専門家の評価との整合性を確保する。実験結果は、カクタスで訓練されたモデルであるキャメルが、カウンセリングスキルにおいて他のモデルよりも優れていることを示し、カウンセリングエージェントとしての有効性と可能性を強調している。我々はデータ、モデル、コードを公開する。

要約(オリジナル)

Recently, the demand for psychological counseling has significantly increased as more individuals express concerns about their mental health. This surge has accelerated efforts to improve the accessibility of counseling by using large language models (LLMs) as counselors. To ensure client privacy, training open-source LLMs faces a key challenge: the absence of realistic counseling datasets. To address this, we introduce Cactus, a multi-turn dialogue dataset that emulates real-life interactions using the goal-oriented and structured approach of Cognitive Behavioral Therapy (CBT). We create a diverse and realistic dataset by designing clients with varied, specific personas, and having counselors systematically apply CBT techniques in their interactions. To assess the quality of our data, we benchmark against established psychological criteria used to evaluate real counseling sessions, ensuring alignment with expert evaluations. Experimental results demonstrate that Camel, a model trained with Cactus, outperforms other models in counseling skills, highlighting its effectiveness and potential as a counseling agent. We make our data, model, and code publicly available.

arxiv情報

著者 Suyeon Lee,Sunghwan Kim,Minju Kim,Dongjin Kang,Dongil Yang,Harim Kim,Minseok Kang,Dayi Jung,Min Hee Kim,Seungbeen Lee,Kyoung-Mee Chung,Youngjae Yu,Dongha Lee,Jinyoung Yeo
発行日 2024-07-03 13:41:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク