要約
新型コロナウイルス感染症(COVID-19)のパンデミックは世界中でメンタルヘルス危機を拡大し、社会的孤立と経済的不安定が自殺行動の増加につながっている。
自殺は、恥、虐待、遺棄などの社会的要因のほか、うつ病、心的外傷後ストレス障害(PTSD)、注意欠陥・多動性障害(ADHD)、不安障害、双極性障害などの精神的健康状態が原因で発生する場合があります。
こうした症状が進行すると、ソーシャルメディアでのやり取りに自殺念慮の兆候が現れることがあります。
人工知能 (AI) 技術を使用してソーシャル メディア データを分析すると、自殺行動のパターンを特定するのに役立ち、自殺防止機関、専門家、およびより広範なコミュニティの啓発活動に貴重な洞察を提供できます。
この目的のための機械学習アルゴリズムには、正確にラベル付けされた大量のデータが必要です。
これまでの研究では、縦断的なソーシャルメディアデータの分析とラベル付けに説明を組み込む可能性について十分に検討されていませんでした。
この研究では、微調整された最先端の言語モデルに加えてモデル説明手法であるレイヤー統合勾配を採用し、Reddit ユーザーの投稿の各トークンに自殺念慮を予測するための属性スコアを割り当てました。
データからトークンの属性を抽出して分析することにより、推論中に大規模な言語モデルを使用せずに、自殺念慮についてソーシャルメディア投稿を事前にスクリーニングする方法論を提案します。
要約(オリジナル)
The COVID-19 pandemic has escalated mental health crises worldwide, with social isolation and economic instability contributing to a rise in suicidal behavior. Suicide can result from social factors such as shame, abuse, abandonment, and mental health conditions like depression, Post-Traumatic Stress Disorder (PTSD), Attention-Deficit/Hyperactivity Disorder (ADHD), anxiety disorders, and bipolar disorders. As these conditions develop, signs of suicidal ideation may manifest in social media interactions. Analyzing social media data using artificial intelligence (AI) techniques can help identify patterns of suicidal behavior, providing invaluable insights for suicide prevention agencies, professionals, and broader community awareness initiatives. Machine learning algorithms for this purpose require large volumes of accurately labeled data. Previous research has not fully explored the potential of incorporating explanations in analyzing and labeling longitudinal social media data. In this study, we employed a model explanation method, Layer Integrated Gradients, on top of a fine-tuned state-of-the-art language model, to assign each token from Reddit users’ posts an attribution score for predicting suicidal ideation. By extracting and analyzing attributions of tokens from the data, we propose a methodology for preliminary screening of social media posts for suicidal ideation without using large language models during inference.
arxiv情報
著者 | Van Minh Nguyen,Nasheen Nur,William Stern,Thomas Mercer,Chiradeep Sen,Siddhartha Bhattacharyya,Victor Tumbiolo,Seng Jhing Goh |
発行日 | 2023-12-13 17:15:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google