Gendered Mental Health Stigma in Masked Language Models

要約

タイトル: マスクされた言語モデルにおけるジェンダーに特化したメンタルヘルスのスティグマ
要約:
– メンタルヘルスのスティグマが多くの人々が適切な治療を受けられなくしてしまう。社会心理学の研究から、特に男性の場合、メンタルヘルスが見過ごされる傾向にあることが示されている。
– 本研究では、マスクされた言語モデルにおけるジェンダーに特化したメンタルヘルスのスティグマを調査する。そのために、心理学の研究に基づいた枠組みを開発し、臨床心理学文献を使用してプロンプトを作成し、モデルがどのようなジェンダーを生成する傾向にあるかを評価する。
– 本研究により、マスクされた言語モデルは、メンタルヘルスにおける社会的スティグマを捉えることができることがわかった。精神疾患の存在についての文章では、女性を予測する確率が男性よりも高い(32%対19%)ことが、信頼性の高い結果として示された。また、治療行動を示す文であるほど、この格差がさらに悪化することも分かった。
– さらに、異なるモデルは、男性と女性に対してスティグマの異なる次元を捕捉し、怒り、責任、同情のようなステレオタイプを、女性に対して男性よりも精神状態に関するものと結びつけることがわかった。
– 本研究により、モデルのジェンダーに特化したメンタルヘルスのスティグマの複雑なニュアンスを明らかにし、コンピュータモデルの社会的なバイアスを評価する際に、文脈と重なるアイデンティティの次元が重要な考慮事項であることが示された。

要約(オリジナル)

Mental health stigma prevents many individuals from receiving the appropriate care, and social psychology studies have shown that mental health tends to be overlooked in men. In this work, we investigate gendered mental health stigma in masked language models. In doing so, we operationalize mental health stigma by developing a framework grounded in psychology research: we use clinical psychology literature to curate prompts, then evaluate the models’ propensity to generate gendered words. We find that masked language models capture societal stigma about gender in mental health: models are consistently more likely to predict female subjects than male in sentences about having a mental health condition (32% vs. 19%), and this disparity is exacerbated for sentences that indicate treatment-seeking behavior. Furthermore, we find that different models capture dimensions of stigma differently for men and women, associating stereotypes like anger, blame, and pity more with women with mental health conditions than with men. In showing the complex nuances of models’ gendered mental health stigma, we demonstrate that context and overlapping dimensions of identity are important considerations when assessing computational models’ social biases.

arxiv情報

著者 Inna Wanyin Lin,Lucille Njoo,Anjalie Field,Ashish Sharma,Katharina Reinecke,Tim Althoff,Yulia Tsvetkov
発行日 2023-04-11 23:54:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.CY パーマリンク