Mental Disorders Detection in the Era of Large Language Models

要約

この論文では、うつ病と不安を検出するタスクにおける、従来の機械学習手法、エンコーダーベースのモデル、および大規模言語モデル (LLM) の有効性を比較します。
対象となる病理学クラスを定義するために使用される形式と方法がそれぞれ異なる 5 つのデータセットが検討されました。
私たちは、言語特徴に基づいた AutoML モデル、BERT などのエンコーダベースの Transformer のいくつかのバリエーション、および病理学分類モデルとしての最先端の LLM をテストしました。
その結果、LLM は、特にトレーニング サンプルのテキストの長さやジャンルが大幅に異なるノイズの多い小規模なデータセットにおいて、従来の方法よりも優れたパフォーマンスを発揮することが実証されました。
しかし、心理言語学的特徴とエンコーダーベースのモデルは、臨床的にうつ病と確認された個人からのテキストでトレーニングされた場合、言語モデルに匹敵するパフォーマンスを達成することができ、対象を絞った臨床応用における潜在的な有効性が強調されています。

要約(オリジナル)

This paper compares the effectiveness of traditional machine learning methods, encoder-based models, and large language models (LLMs) on the task of detecting depression and anxiety. Five datasets were considered, each differing in format and the method used to define the target pathology class. We tested AutoML models based on linguistic features, several variations of encoder-based Transformers such as BERT, and state-of-the-art LLMs as pathology classification models. The results demonstrated that LLMs outperform traditional methods, particularly on noisy and small datasets where training examples vary significantly in text length and genre. However, psycholinguistic features and encoder-based models can achieve performance comparable to language models when trained on texts from individuals with clinically confirmed depression, highlighting their potential effectiveness in targeted clinical applications.

arxiv情報

著者 Gleb Kuzmin,Petr Strepetov,Maksim Stankevich,Ivan Smirnov,Artem Shelmanov
発行日 2024-10-09 17:51:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク