Beyond Empathy: Integrating Diagnostic and Therapeutic Reasoning with Large Language Models for Mental Health Counseling

要約

大規模な言語モデル(LLM)は、共感的な反応を生み出し、治療的会話をシミュレートできるメンタルヘルスサポートの重要な可能性を秘めています。
しかし、既存のLLMベースのアプローチには、特にDSM/ICDなどの基準に合わせて明示的な診断推論において、実世界の心理的カウンセリングに必要な臨床的根拠がないことがよくあります。
これらの重要な制限に対処するために、メンタルヘルスカウンセリングの診断と治療の推論の両方を体系的に統合するように設計された最初の大規模な言語モデルであるPsyllmを提案します。
Psyllmを開発するために、新しい自動化されたデータ合成パイプラインを提案します。
このパイプラインは、現実世界のメンタルヘルスの投稿を処理し、マルチターンダイアログ構造を生成し、国際診断基準(DSM/ICDなど)と複数の治療用フレームワーク(CBT、ACT、精神力学など)に導かれたLLMをレバレッジして、詳細な臨床推論プロセスをシミュレートします。
厳密な多次元フィルタリングにより、高品質の臨床的に整合したダイアログデータの生成が保証されます。
さらに、新しいベンチマークと評価プロトコルを紹介し、4つの重要な側面にわたってカウンセリングの品質を評価します。
私たちの実験は、Psyllmがこのベンチマークで最新のベースラインモデルを大幅に上回ることを示しています。

要約(オリジナル)

Large language models (LLMs) hold significant potential for mental health support, capable of generating empathetic responses and simulating therapeutic conversations. However, existing LLM-based approaches often lack the clinical grounding necessary for real-world psychological counseling, particularly in explicit diagnostic reasoning aligned with standards like the DSM/ICD and incorporating diverse therapeutic modalities beyond basic empathy or single strategies. To address these critical limitations, we propose PsyLLM, the first large language model designed to systematically integrate both diagnostic and therapeutic reasoning for mental health counseling. To develop the PsyLLM, we propose a novel automated data synthesis pipeline. This pipeline processes real-world mental health posts, generates multi-turn dialogue structures, and leverages LLMs guided by international diagnostic standards (e.g., DSM/ICD) and multiple therapeutic frameworks (e.g., CBT, ACT, psychodynamic) to simulate detailed clinical reasoning processes. Rigorous multi-dimensional filtering ensures the generation of high-quality, clinically aligned dialogue data. In addition, we introduce a new benchmark and evaluation protocol, assessing counseling quality across four key dimensions: comprehensiveness, professionalism, authenticity, and safety. Our experiments demonstrate that PsyLLM significantly outperforms state-of-the-art baseline models on this benchmark.

arxiv情報

著者 He Hu,Yucheng Zhou,Juzheng Si,Qianning Wang,Hengheng Zhang,Fuji Ren,Fei Ma,Laizhong Cui
発行日 2025-05-21 16:24:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク