要約
自然言語処理 (NLP) の分野は、深層学習テクノロジの急速な発展により大幅に進歩しました。
テキスト感情分析における研究方向の 1 つは、医学テキストの感情分析であり、臨床診断への応用に大きな可能性を秘めています。
ただし、医療分野には現在十分なテキスト データセットが不足しており、センチメント分析の有効性はさまざまなモデル設計アプローチによって大きく影響されるため、課題が生じています。
したがって、この論文は医療分野に焦点を当てており、変換器からの双方向エンコーダ表現 (BERT) を基本的な事前トレーニング済みモデルとして使用し、畳み込みニューラル ネットワーク (CNN)、完全接続ネットワーク (FCN)、グラフ畳み込みネットワークなどのモジュールを実験します。
(GCN) 出力層で。
さまざまな深層学習ネットワークを統合した後のトレーニングのパフォーマンスを調査するために、METS-CoV データセットに対して実験と分析が行われました。
この結果は、BERT などの事前トレーニング済みモデルと組み合わせて、小規模な医療テキスト データセットでトレーニングした場合、CNN モデルが他のネットワークよりも優れたパフォーマンスを発揮することを示しています。
この研究は、医療分野で効果的なセンチメント分析を達成する上でのモデル選択の重要性を強調し、より効率的なモデル アーキテクチャを開発するための将来の研究への参考を提供します。
要約(オリジナル)
The field of natural language processing (NLP) has made significant progress with the rapid development of deep learning technologies. One of the research directions in text sentiment analysis is sentiment analysis of medical texts, which holds great potential for application in clinical diagnosis. However, the medical field currently lacks sufficient text datasets, and the effectiveness of sentiment analysis is greatly impacted by different model design approaches, which presents challenges. Therefore, this paper focuses on the medical domain, using bidirectional encoder representations from transformers (BERT) as the basic pre-trained model and experimenting with modules such as convolutional neural network (CNN), fully connected network (FCN), and graph convolutional networks (GCN) at the output layer. Experiments and analyses were conducted on the METS-CoV dataset to explore the training performance after integrating different deep learning networks. The results indicate that CNN models outperform other networks when trained on smaller medical text datasets in combination with pre-trained models like BERT. This study highlights the significance of model selection in achieving effective sentiment analysis in the medical domain and provides a reference for future research to develop more efficient model architectures.
arxiv情報
著者 | Yinan Chen |
発行日 | 2024-04-16 12:20:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google