Domain-specific Continued Pretraining of Language Models for Capturing Long Context in Mental Health

要約

タイトル:メンタルヘルスにおける長い文脈を捉えるためのドメイン固有の言語モデルの継続的プリトレーニング

要約:

・プリトレーニングされた言語モデルは、さまざまな自然言語処理のアプリケーションで使用されている。

・メンタルヘルスのドメインでは、ドメイン固有の言語モデルがプリトレーニングされ、リリースされており、早期のメンタルヘルス状態の検出を促進している。

・Redditなどのソーシャルポストは通常、長いドキュメントであるが、メンタルヘルスドメインにおける長いシーケンスモデリングのためのドメイン固有のプリトレーニングモデルは存在しない。

・この論文では、メンタルヘルスにおいて長い文脈を捉えるためにドメイン固有の継続的プリトレーニングを行いました。

・具体的には、XLNetとLongformerをベースにMentalXLNetとMentalLongformerをトレーニングおよびリリースしました。

・これらの二つのドメイン固有のプリトレーニングモデルのメンタルヘルス分類性能と長距離能力を評価しました。

・当社のモデルはHuggingFaceでリリースされています。

要約(オリジナル)

Pretrained language models have been used in various natural language processing applications. In the mental health domain, domain-specific language models are pretrained and released, which facilitates the early detection of mental health conditions. Social posts, e.g., on Reddit, are usually long documents. However, there are no domain-specific pretrained models for long-sequence modeling in the mental health domain. This paper conducts domain-specific continued pretraining to capture the long context for mental health. Specifically, we train and release MentalXLNet and MentalLongformer based on XLNet and Longformer. We evaluate the mental health classification performance and the long-range ability of these two domain-specific pretrained models. Our models are released in HuggingFace.

arxiv情報

著者 Shaoxiong Ji,Tianlin Zhang,Kailai Yang,Sophia Ananiadou,Erik Cambria,Jörg Tiedemann
発行日 2023-04-20 16:43:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク