Large Language Models are Capable of Offering Cognitive Reappraisal, if Guided

要約

大規模言語モデル (LLM) は、感情的なサポートのための新たな機会を提供しており、最近の研究では、LLM が苦しんでいる人々に対して共感的な反応を生み出すことができることが示されています。
しかし、長期的な精神的健康には感情的な自己調整が必要であり、一度だけの共感的な反応では不十分です。
この研究は、認知的再評価に取り組むことで最初の一歩を踏み出します。これは、個人が状況に対して行う否定的な評価を言語を使用してターゲットを絞って変更する心理学の実践者による戦略です。
このような評価は人間の感情経験の根源にあることが知られています。
私たちは、心理学的に根拠のある原理によって、LLM におけるこのような高度な心理機能が可能になるのではないかと仮説を立て、LLM の指示として使用できる複数の次元にわたる一連の再評価構成で構成される RESORT を設計します。
私たちは、支援を求める中程度の長さのソーシャルメディアメッセージに対する認知的再評価応答を生成するLLMのゼロショット能力について、(修士号または博士号を取得した臨床心理士による)この種では初めての専門家評価を実施します。
このきめ細かい評価により、RESORT によって導かれた 7B スケールの LLM であっても、ユーザーが自分の状況を再評価するのに役立つ共感的な応答を生成できることがわかりました。

要約(オリジナル)

Large language models (LLMs) have offered new opportunities for emotional support, and recent work has shown that they can produce empathic responses to people in distress. However, long-term mental well-being requires emotional self-regulation, where a one-time empathic response falls short. This work takes a first step by engaging with cognitive reappraisals, a strategy from psychology practitioners that uses language to targetedly change negative appraisals that an individual makes of the situation; such appraisals is known to sit at the root of human emotional experience. We hypothesize that psychologically grounded principles could enable such advanced psychology capabilities in LLMs, and design RESORT which consists of a series of reappraisal constitutions across multiple dimensions that can be used as LLM instructions. We conduct a first-of-its-kind expert evaluation (by clinical psychologists with M.S. or Ph.D. degrees) of an LLM’s zero-shot ability to generate cognitive reappraisal responses to medium-length social media messages asking for support. This fine-grained evaluation showed that even LLMs at the 7B scale guided by RESORT are capable of generating empathic responses that can help users reappraise their situations.

arxiv情報

著者 Hongli Zhan,Allen Zheng,Yoon Kyung Lee,Jina Suh,Junyi Jessy Li,Desmond C. Ong
発行日 2024-08-08 15:44:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク