Text Sentiment Analysis and Classification Based on Bidirectional Gated Recurrent Units (GRUs) Model

要約

この論文では、自然言語処理の分野におけるテキストのセンチメント分析と分類の重要性を探り、双方向ゲート反復ユニット (GRU) モデルに基づいたセンチメント分析と分類への新しいアプローチを提案します。
この研究では、まず 6 つのセンチメント ラベルを使用してテキストのワード クラウド モデルを分析し、次に特殊記号、句読点、数字、ストップ ワード、およびアルファベット以外の部分を削除する手順を含むデータの前処理を実行します。
その後、データ セットはトレーニング セットとテスト セットに分割され、モデルのトレーニングとテストを通じて、検証セットの精度がトレーニングにより 85% から 93% に増加し、8% 増加したことがわかります。
同時に、検証セットの損失値は 0.7 から 0.1 に減少し、安定する傾向があり、モデルは徐々に実際の値に近づき、テキストの感情を効果的に分類できます。
混同行列は、テスト セット上のモデルの精度が 94.8% に達し、精度が 95.9%、再現率が 99.1%、F1 スコアが 97.4% であることを示しており、モデルが優れた汎化能力と分類効果を備えていることが証明されています。

全体として、この研究はテキスト感情分析と分類に効果的な方法を実証し、満足のいく結果をもたらしました。

要約(オリジナル)

This paper explores the importance of text sentiment analysis and classification in the field of natural language processing, and proposes a new approach to sentiment analysis and classification based on the bidirectional gated recurrent units (GRUs) model. The study firstly analyses the word cloud model of the text with six sentiment labels, and then carries out data preprocessing, including the steps of removing special symbols, punctuation marks, numbers, stop words and non-alphabetic parts. Subsequently, the data set is divided into training set and test set, and through model training and testing, it is found that the accuracy of the validation set is increased from 85% to 93% with training, which is an increase of 8%; at the same time, the loss value of the validation set decreases from 0.7 to 0.1 and tends to be stable, and the model is gradually close to the actual value, which can effectively classify the text emotions. The confusion matrix shows that the accuracy of the model on the test set reaches 94.8%, the precision is 95.9%, the recall is 99.1%, and the F1 score is 97.4%, which proves that the model has good generalisation ability and classification effect. Overall, the study demonstrated an effective method for text sentiment analysis and classification with satisfactory results.

arxiv情報

著者 Wei Xu,Jianlong Chen,Zhicheng Ding,Jinyin Wang
発行日 2024-06-12 14:12:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク