MONOVAB : An Annotated Corpus for Bangla Multi-label Emotion Detection

要約

近年、センチメント分析(SA)と感情認識(ER)は、全世界で7番目に話されている言語であるバングラ語でますます人気があります。
ただし、言語は構造的に複雑であるため、この分野は正確な方法で感情を抽出するために困難になります。
この研究分野では、肯定的および否定的な感情の抽出やマルチクラス感情の抽出などのいくつかの異なるアプローチが実装されています。
それにもかかわらず、複数の感情の抽出は、この言語ではほとんど手つかずの領域です。
これには、単一のテキストに基づいていくつかの感情を識別することが含まれます。
したがって、この研究は、Facebookからの廃棄されたデータに基づいて注釈付きコーパスを構築するための徹底的な方法を示しており、この主題領域のギャップを埋めて課題を克服します。
この注釈をより実り多いものにするために、コンテキストベースのアプローチが使用されています。
トランスのよく知られた方法論であるトランス(BERT)からの双方向エンコーダー表現は、実装されたすべての方法の最良の結果を示しています。
最後に、バングラのマルチラベルER向けの事前訓練を受けたトップパフォーマーモデル(BERT)のパフォーマンスを実証するために、Webアプリケーションが開発されました。

要約(オリジナル)

In recent years, Sentiment Analysis (SA) and Emotion Recognition (ER) have been increasingly popular in the Bangla language, which is the seventh most spoken language throughout the entire world. However, the language is structurally complicated, which makes this field arduous to extract emotions in an accurate manner. Several distinct approaches such as the extraction of positive and negative sentiments as well as multiclass emotions, have been implemented in this field of study. Nevertheless, the extraction of multiple sentiments is an almost untouched area in this language. Which involves identifying several feelings based on a single piece of text. Therefore, this study demonstrates a thorough method for constructing an annotated corpus based on scrapped data from Facebook to bridge the gaps in this subject area to overcome the challenges. To make this annotation more fruitful, the context-based approach has been used. Bidirectional Encoder Representations from Transformers (BERT), a well-known methodology of transformers, have been shown the best results of all methods implemented. Finally, a web application has been developed to demonstrate the performance of the pre-trained top-performer model (BERT) for multi-label ER in Bangla.

arxiv情報

著者 Sumit Kumar Banshal,Sajal Das,Shumaiya Akter Shammi,Narayan Ranjan Chakraborty,Aulia Luqman Aziz,Mohammed Aljuaid,Fazla Rabby,Rohit Bansal
発行日 2025-05-05 13:39:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク