An Assessment on Comprehending Mental Health through Large Language Models

要約

メンタルヘルスの問題は、個人や地域社会に多大な世界的負担をもたらします。
最近のデータによると、成人の 20% 以上が生涯で少なくとも 1 つの精神障害に遭遇する可能性があります。
一方で、大規模言語モデルの進歩により多様な応用が促進されていますが、メンタルヘルスの領域内で大規模言語モデルの可能性を理解し、強化することに関しては、依然として大きな研究ギャップが残っています。
一方で、さまざまなアプリケーションにわたって、人間の精神的健康状態の表現を自然言語で理解するための大規模な言語モデルの能力に関する未解決の疑問があります。
この研究では、このギャップに対処するための大規模な言語モデルの初期評価を示します。
このため、Llama-2 と ChatGPT のパフォーマンスを従来のマシンおよび深層学習モデルと比較しました。
DAIC-WOZ データセットに関する結果は、BERT や XLNet などのトランスフォーマーベースのモデルが大規模な言語モデルよりも優れていることを示しています。

要約(オリジナル)

Mental health challenges pose considerable global burdens on individuals and communities. Recent data indicates that more than 20% of adults may encounter at least one mental disorder in their lifetime. On the one hand, the advancements in large language models have facilitated diverse applications, yet a significant research gap persists in understanding and enhancing the potential of large language models within the domain of mental health. On the other hand, across various applications, an outstanding question involves the capacity of large language models to comprehend expressions of human mental health conditions in natural language. This study presents an initial evaluation of large language models in addressing this gap. Due to this, we compare the performance of Llama-2 and ChatGPT with classical Machine as well as Deep learning models. Our results on the DAIC-WOZ dataset show that transformer-based models, like BERT or XLNet, outperform the large language models.

arxiv情報

著者 Mihael Arcan,Paul-David Niland,Fionn Delahunty
発行日 2024-01-09 14:50:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク