Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models

要約

進化するオンライン コミュニケーションの状況において、ヘイト スピーチ (HS) のモデレートには複雑な課題が伴い、デジタル コンテンツのマルチモーダルな性質によってさらに複雑になります。
この包括的な調査では、HS モデレーションにおける最近の進歩を掘り下げ、大規模言語モデル (LLM) と大規模マルチモーダル モデル (LMM) の急速な役割に焦点を当てています。
私たちの調査は、現在の文献を徹底的に分析することから始まり、HS の伝播におけるテキスト、視覚、聴覚要素間の微妙な相互作用を明らかにします。
私たちは、主に HS が普及する際の複雑さと繊細さにより、これらのモダリティを統合するという注目すべき傾向を明らかにしました。
検出機能と調整機能の境界を再定義し始めている LLM と LMM によって促進される進歩に重点が置かれています。
私たちは、特に過小評価されている言語や文化の文脈において、研究における既存のギャップと、リソースが少ない環境に対処するためのソリューションの必要性を特定します。
この調査は、新しい AI 手法の探求、適度な AI の倫理的ガバナンス、より微妙なコンテキスト認識型システムの開発など、将来の研究に向けた可能性のある道筋を概説し、将来を見据えた視点で締めくくられています。
この包括的な概要は、さらなる研究を促進し、デジタル時代のHSモデレーションに対するより洗練された、責任ある、人間中心のアプローチに向けた共同の取り組みを促進することを目的としています。
警告: この文書には不快な例が含まれています。

要約(オリジナル)

In the evolving landscape of online communication, moderating hate speech (HS) presents an intricate challenge, compounded by the multimodal nature of digital content. This comprehensive survey delves into the recent strides in HS moderation, spotlighting the burgeoning role of large language models (LLMs) and large multimodal models (LMMs). Our exploration begins with a thorough analysis of current literature, revealing the nuanced interplay between textual, visual, and auditory elements in propagating HS. We uncover a notable trend towards integrating these modalities, primarily due to the complexity and subtlety with which HS is disseminated. A significant emphasis is placed on the advances facilitated by LLMs and LMMs, which have begun to redefine the boundaries of detection and moderation capabilities. We identify existing gaps in research, particularly in the context of underrepresented languages and cultures, and the need for solutions to handle low-resource settings. The survey concludes with a forward-looking perspective, outlining potential avenues for future research, including the exploration of novel AI methodologies, the ethical governance of AI in moderation, and the development of more nuanced, context-aware systems. This comprehensive overview aims to catalyze further research and foster a collaborative effort towards more sophisticated, responsible, and human-centric approaches to HS moderation in the digital era. WARNING: This paper contains offensive examples.

arxiv情報

著者 Ming Shan Hee,Shivam Sharma,Rui Cao,Palash Nandi,Preslav Nakov,Tanmoy Chakraborty,Roy Ka-Wei Lee
発行日 2024-10-30 13:49:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク