MONOVAB : An Annotated Corpus for Bangla Multi-label Emotion Detection

要約

近年、全世界で 7 番目に話されている言語であるバングラ語における感情分析 (SA) と感情認識 (ER) の人気が高まっています。
しかし、言語は構造的に複雑であるため、この分野では感情を正確に抽出することが困難です。
この研究分野では、ポジティブな感情とネガティブな感情、さらには複数のクラスの感情の抽出など、いくつかの異なるアプローチが実装されています。
それにもかかわらず、複数の感情の抽出は、この言語ではほとんど手つかずの領域です。
これには、単一のテキストに基づいて複数の感情を特定することが含まれます。
したがって、この研究では、Facebook からスクラップされたデータに基づいて注釈付きコーパスを構築し、この主題領域のギャップを埋めて課題を克服する徹底的な方法を実証します。
この注釈をより実りあるものにするために、コンテキストベースのアプローチが使用されています。
トランスフォーマーのよく知られた方法論である Bidirectional Encoder Representations from Transformers (BERT) は、実装されたすべての方法の中で最良の結果が示されています。
最後に、バングラのマルチラベル ER 用の事前トレーニング済みトップパフォーマー モデル (BERT) のパフォーマンスを実証する Web アプリケーションが開発されました。

要約(オリジナル)

In recent years, Sentiment Analysis (SA) and Emotion Recognition (ER) have been increasingly popular in the Bangla language, which is the seventh most spoken language throughout the entire world. However, the language is structurally complicated, which makes this field arduous to extract emotions in an accurate manner. Several distinct approaches such as the extraction of positive and negative sentiments as well as multiclass emotions, have been implemented in this field of study. Nevertheless, the extraction of multiple sentiments is an almost untouched area in this language. Which involves identifying several feelings based on a single piece of text. Therefore, this study demonstrates a thorough method for constructing an annotated corpus based on scrapped data from Facebook to bridge the gaps in this subject area to overcome the challenges. To make this annotation more fruitful, the context-based approach has been used. Bidirectional Encoder Representations from Transformers (BERT), a well-known methodology of transformers, have been shown the best results of all methods implemented. Finally, a web application has been developed to demonstrate the performance of the pre-trained top-performer model (BERT) for multi-label ER in Bangla.

arxiv情報

著者 Sumit Kumar Banshal,Sajal Das,Shumaiya Akter Shammi,Narayan Ranjan Chakraborty
発行日 2023-09-27 14:10:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク