Toxic Memes: A Survey of Computational Perspectives on the Detection and Explanation of Meme Toxicities

要約

インターネット ミーム、ユーモア、社会的コメント、文化的表現のチャンネルは、有害なメッセージを広めるためにますます使用されています。
有害なミームの計算による分析に関する研究は過去 5 年間で大幅に増加しましたが、有害なミームの計算による分析に関する調査は 3 件のみで、2022 年までに発表された研究のみを対象としており、用語の一貫性のなさや未調査の傾向につながっています。
私たちの研究は、有害なミームに関するコンテンツベースの計算的観点を調査し、2024 年初頭までの主要な開発をレビューすることによって、このギャップを埋めています。PRISMA 手法を採用して、以前に検討された論文を体系的に拡張し、3 倍の成果を達成しました。
まず、119 件の新しい論文を調査し、コンテンツベースの有害なミーム分析に焦点を当てた 158 件の計算作業を分析します。
私たちは有毒ミーム分析に使用される 30 以上のデータセットを特定し、それらのラベル付けシステムを調査します。
第二に、計算作業におけるミーム毒性の不明確な定義の存在を観察した後、ミーム毒性のタイプを分類するための新しい分類法を導入します。
また、ミームを有毒か無毒かという単純な二項分類を超えて計算タスクが拡大していることにも注目し、毒性の微妙な理解を達成する方向への移行を示しています。
第三に、自動調査の下で、ターゲット、意図、伝達戦術という、ミームの毒性のコンテンツベースの 3 つの側面を特定します。
私たちは、これらの側面とミームの毒性との関係を示すフレームワークを開発します。
この調査では、クロスモーダル推論の強化、専門家と文化的知識の統合、自動毒性説明の需要、低リソース言語でのミーム毒性の処理など、主要な課題と最近の傾向を分析しています。
また、有害なミームの検出と生成のために、大規模言語モデル (LLM) と生成 AI の使用が増加していることにも言及しています。
最後に、有害なミームの検出と解釈を進めるための道筋を提案します。

要約(オリジナル)

Internet memes, channels for humor, social commentary, and cultural expression, are increasingly used to spread toxic messages. Studies on the computational analyses of toxic memes have significantly grown over the past five years, and the only three surveys on computational toxic meme analysis cover only work published until 2022, leading to inconsistent terminology and unexplored trends. Our work fills this gap by surveying content-based computational perspectives on toxic memes, and reviewing key developments until early 2024. Employing the PRISMA methodology, we systematically extend the previously considered papers, achieving a threefold result. First, we survey 119 new papers, analyzing 158 computational works focused on content-based toxic meme analysis. We identify over 30 datasets used in toxic meme analysis and examine their labeling systems. Second, after observing the existence of unclear definitions of meme toxicity in computational works, we introduce a new taxonomy for categorizing meme toxicity types. We also note an expansion in computational tasks beyond the simple binary classification of memes as toxic or non-toxic, indicating a shift towards achieving a nuanced comprehension of toxicity. Third, we identify three content-based dimensions of meme toxicity under automatic study: target, intent, and conveyance tactics. We develop a framework illustrating the relationships between these dimensions and meme toxicities. The survey analyzes key challenges and recent trends, such as enhanced cross-modal reasoning, integrating expert and cultural knowledge, the demand for automatic toxicity explanations, and handling meme toxicity in low-resource languages. Also, it notes the rising use of Large Language Models (LLMs) and generative AI for detecting and generating toxic memes. Finally, it proposes pathways for advancing toxic meme detection and interpretation.

arxiv情報

著者 Delfina Sol Martinez Pandiani,Erik Tjong Kim Sang,Davide Ceolin
発行日 2024-06-11 15:22:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.CY, cs.SI パーマリンク