From Conversation to Automation: Leveraging Large Language Models to Analyze Strategies in Problem Solving Therapy

要約

問題解決療法 (PST) は、問題の特定、解決策のブレインストーミング、意思決定、結果の評価を通じて個人を導き、ストレスを管理し、個人的な問題を解決するのに役立つ構造化された心理的アプローチです。
メンタルヘルスケアではチャットボットや大規模言語モデル (LLM) などのテクノロジーの統合が進んでおり、PST を効果的に自動化する方法を理解することが重要です。
この研究では、匿名化された治療記録を活用して、さまざまな LLM およびトランスフォーマーベースのモデルを使用して治療介入を分析および分類します。
私たちの結果は、GPT-4o が PST 戦略の特定において最高の精度 (0.76) を達成し、他のモデルを上回っていることを示しています。
さらに、現在の PST フレームワークを強化する新しい次元のコミュニケーション戦略を導入し、セラピストとクライアントの相互作用についてより深い洞察を提供します。
この研究は、LLM が複雑な治療対話分析を自動化し、メンタルヘルス介入のためのスケーラブルで効率的なツールを提供する可能性を実証しています。
当社のアノテーション フレームワークは、PST のアクセシビリティ、有効性、パーソナライゼーションを強化し、より正確で的を絞った介入でセラピストをリアルタイムでサポートします。

要約(オリジナル)

Problem-solving therapy (PST) is a structured psychological approach that helps individuals manage stress and resolve personal issues by guiding them through problem identification, solution brainstorming, decision-making, and outcome evaluation. As mental health care increasingly integrates technologies like chatbots and large language models (LLMs), understanding how PST can be effectively automated is important. This study leverages anonymized therapy transcripts to analyze and classify therapeutic interventions using various LLMs and transformer-based models. Our results show that GPT-4o achieved the highest accuracy (0.76) in identifying PST strategies, outperforming other models. Additionally, we introduced a new dimension of communication strategies that enhances the current PST framework, offering deeper insights into therapist-client interactions. This research demonstrates the potential of LLMs to automate complex therapeutic dialogue analysis, providing a scalable, efficient tool for mental health interventions. Our annotation framework can enhance the accessibility, effectiveness, and personalization of PST, supporting therapists in real-time with more precise, targeted interventions.

arxiv情報

著者 Elham Aghakhani,Lu Wang,Karla T. Washington,George Demiris,Jina Huh-Yoo,Rezvaneh Rezapour
発行日 2025-01-10 16:54:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク