Assessing the Level of Toxicity Against Distinct Groups in Bangla Social Media Comments: A Comprehensive Investigation

要約

ソーシャル メディア プラットフォームは現代世界において重要な役割を果たしており、コミュニケーション、アイデアの交換、ネットワークの確立のためのパイプとして機能します。
しかし、攻撃的な発言からヘイトスピーチに至るまで、有害なコメントによるこれらのプラットフォームの悪用は憂慮すべき問題です。
この研究は、複数のソーシャル メディア ソースから、トランスジェンダー、先住民、移民という 3 つの特定のグループを対象としたベンガル語での有害なコメントを特定することに焦点を当てています。
この研究では、高、中、低のさまざまな毒性の程度を考慮しながら、有害な言語を特定して分類する複雑なプロセスを詳しく調べています。
この方法論には、データセットの作成、手動アノテーション、分類用の Bangla-BERT、bangla-bert-base、distil-BERT、Bert-base-multilingual-cases などの事前トレーニング済みトランスフォーマー モデルの採用が含まれます。
モデルの有効性を評価するために、精度、再現率、適合率、F1 スコアなどの多様な評価指標が採用されています。
実験結果は、Bangla-BERT が代替モデルを上回り、F1 スコア 0.8903 を達成したことを明らかにしています。
この研究は、バングラのソーシャルメディア対話における有害性の複雑さを明らかにし、多様な人口統計グループに対するそのさまざまな影響を明らかにしました。

要約(オリジナル)

Social media platforms have a vital role in the modern world, serving as conduits for communication, the exchange of ideas, and the establishment of networks. However, the misuse of these platforms through toxic comments, which can range from offensive remarks to hate speech, is a concerning issue. This study focuses on identifying toxic comments in the Bengali language targeting three specific groups: transgender people, indigenous people, and migrant people, from multiple social media sources. The study delves into the intricate process of identifying and categorizing toxic language while considering the varying degrees of toxicity: high, medium, and low. The methodology involves creating a dataset, manual annotation, and employing pre-trained transformer models like Bangla-BERT, bangla-bert-base, distil-BERT, and Bert-base-multilingual-cased for classification. Diverse assessment metrics such as accuracy, recall, precision, and F1-score are employed to evaluate the model’s effectiveness. The experimental findings reveal that Bangla-BERT surpasses alternative models, achieving an F1-score of 0.8903. This research exposes the complexity of toxicity in Bangla social media dialogues, revealing its differing impacts on diverse demographic groups.

arxiv情報

著者 Mukaffi Bin Moin,Pronay Debnath,Usafa Akther Rifa,Rijeet Bin Anis
発行日 2024-09-25 17:48:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク