A comprehensive cross-language framework for harmful content detection with the aid of sentiment analysis

要約

今日のデジタル社会では、ソーシャルメディアがコミュニケーションやコンテンツ共有の促進に重要な役割を果たしている。しかし、ユーザー生成コンテンツの急激な増加は、尊重されるべきオンライン環境を維持する上での課題につながっている。場合によっては、ユーザーが匿名性を利用して有害な言葉を使用し、ユーザーエクスペリエンスに悪影響を与えたり、深刻な社会問題を引き起こしたりすることもある。手作業によるモデレーションの限界を認識し、この問題に取り組むために自動検出システムが開発されてきた。とはいえ、有害言語の普遍的な定義がないこと、言語間のデータセットが不十分であること、詳細なアノテーション・ガイドラインが必要であること、そして最も重要なことは包括的なフレームワークであることなど、いくつかの障害が残っている。本研究は、あらゆる言語に適応可能な詳細なフレームワークを初めて導入することで、これらの課題に取り組むことを目的としている。このフレームワークは、有害言語検出の様々な側面を包含する。フレームワークの重要な構成要素は、一般的かつ詳細なアノテーション・ガイドラインの開発である。さらに、センチメント分析の統合は、有害言語検出を強化するための新しいアプローチである。また、様々な関連概念のレビューに基づく有害言語の定義が提示される。提案されたフレームワークの有効性を実証するため、難易度の高い低リソース言語での実装を行った。我々はペルシア語のデータセットを収集し、有害語検出と感情分析のためのアノテーションガイドラインを適用した。次に、ベンチマークを設定するために、機械学習と深層学習の手法を利用したベースライン実験を示す。結果はフレームワークの高い性能を証明し、有害言語検出で99.4%、感情分析で66.2%の精度を達成した。

要約(オリジナル)

In today’s digital world, social media plays a significant role in facilitating communication and content sharing. However, the exponential rise in user-generated content has led to challenges in maintaining a respectful online environment. In some cases, users have taken advantage of anonymity in order to use harmful language, which can negatively affect the user experience and pose serious social problems. Recognizing the limitations of manual moderation, automatic detection systems have been developed to tackle this problem. Nevertheless, several obstacles persist, including the absence of a universal definition for harmful language, inadequate datasets across languages, the need for detailed annotation guideline, and most importantly, a comprehensive framework. This study aims to address these challenges by introducing, for the first time, a detailed framework adaptable to any language. This framework encompasses various aspects of harmful language detection. A key component of the framework is the development of a general and detailed annotation guideline. Additionally, the integration of sentiment analysis represents a novel approach to enhancing harmful language detection. Also, a definition of harmful language based on the review of different related concepts is presented. To demonstrate the effectiveness of the proposed framework, its implementation in a challenging low-resource language is conducted. We collected a Persian dataset and applied the annotation guideline for harmful detection and sentiment analysis. Next, we present baseline experiments utilizing machine and deep learning methods to set benchmarks. Results prove the framework’s high performance, achieving an accuracy of 99.4% in offensive language detection and 66.2% in sentiment analysis.

arxiv情報

著者 Mohammad Dehghani
発行日 2024-03-02 17:13:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク