要約
自殺事象を正確に特定して分類することで、より適切な自殺予防策が得られ、業務上の負担が軽減され、重症度の高い精神科医療現場でのケアの質が向上します。
事前トレーニングされた言語モデルは、構造化されていない臨床ナラティブから自殺傾向を特定する可能性をもたらします。
注釈付きの500件の精神医学的評価ノートから共存する自殺イベントを検出するための2つの微調整戦略(複数の単一ラベルと単一のマルチラベル)を使用して、4つのBERTベースのモデルのパフォーマンスを評価しました。
メモには、自殺念慮 (SI)、自殺企図 (SA)、自殺への曝露 (ES)、および非自殺自傷行為 (NSSI) のラベルが付けられました。
RoBERTa は、バイナリ関連性 (acc=0.86、F1=0.78) を使用した他のモデルよりも優れたパフォーマンスを示しました。
MentalBERT (F1=0.74) も BioClinicalBERT (F1=0.72) を上回りました。
単一のマルチラベル分類器を使用して微調整された RoBERTa は、パフォーマンスをさらに向上させ (acc=0.88、F1=0.81)、ドメイン関連データで事前トレーニングされたモデルと単一のマルチラベル分類戦略が効率とパフォーマンスを向上させることを強調しています。
キーワード: EHR ベースのフィノタイピング。
自然言語処理。
EHR データの二次利用;
自殺の分類;
BERT ベースのモデル。
精神科;
メンタルヘルス
要約(オリジナル)
Accurate identification and categorization of suicidal events can yield better suicide precautions, reducing operational burden, and improving care quality in high-acuity psychiatric settings. Pre-trained language models offer promise for identifying suicidality from unstructured clinical narratives. We evaluated the performance of four BERT-based models using two fine-tuning strategies (multiple single-label and single multi-label) for detecting coexisting suicidal events from 500 annotated psychiatric evaluation notes. The notes were labeled for suicidal ideation (SI), suicide attempts (SA), exposure to suicide (ES), and non-suicidal self-injury (NSSI). RoBERTa outperformed other models using binary relevance (acc=0.86, F1=0.78). MentalBERT (F1=0.74) also exceeded BioClinicalBERT (F1=0.72). RoBERTa fine-tuned with a single multi-label classifier further improved performance (acc=0.88, F1=0.81), highlighting that models pre-trained on domain-relevant data and the single multi-label classification strategy enhance efficiency and performance. Keywords: EHR-based Phynotyping; Natural Language Processing; Secondary Use of EHR Data; Suicide Classification; BERT-based Model; Psychiatry; Mental Health
arxiv情報
著者 | Zehan Li,Yan Hu,Scott Lane,Salih Selek,Lokesh Shahani,Rodrigo Machado-Vieira,Jair Soares,Hua Xu,Hongfang Liu,Ming Huang |
発行日 | 2024-09-27 16:13:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google