Characterizing the Entities in Harmful Memes: Who is the Hero, the Villain, the Victim?

要約

タイトル:「有害ミームにおけるエンティティの特徴付け:ヒーロー、悪者、被害者は誰か?」

要約:
– ミームは視覚的およびテキスト情報を組み合わせた形で人々の意見を揺り動かすことができ、簡単に消費することができるため、社交メディア上ですぐに拡散されることが多い。
– したがって、ミームが意図することや潜在的な有害性を推測し、必要に応じて適時に対処することが重要となる。
– ミーム理解に関連する一般的な問題は、参照されるエンティティを検出し、それぞれの役割を特徴付けることである。
– この論文では、有害なミームにおいて、エンティティの役割を同定するタスクについて取り上げている。つまり、ミームにおいて「ヒーロー」「悪役」「被害者」がいればそれを検出する。
– このために、「HVVMemes」というデータセットを利用して、多様な情報を統合した「VECTOR」というロバストなマルチモーダルフレームワークを設計した。
– 実験の結果、提案モデルは最も優れた競合モデルと比較して4%の向上を見せた。
– 最後に、ミーム内の意味的役割ラベリングの複雑さに直面する際に遭遇する問題を強調している。

要点:
– ミームは社交メディア上ですぐに拡散され、意見を揺り動かすことができる。
– ミーム理解に関連する一般的な問題は、参照されるエンティティを検出し、それぞれの役割を特徴付けること。
– この論文は、有害なミームにおいて、エンティティの役割を同定するタスクについて取り上げている。
– マルチモーダルフレームワーク「VECTOR」を設計した。
– 実験の結果、提案モデルは最も優れた競合モデルと比較して4%の向上を見せた。
– ミーム内の意味的役割ラベリングに直面する問題について言及している。

要約(オリジナル)

Memes can sway people’s opinions over social media as they combine visual and textual information in an easy-to-consume manner. Since memes instantly turn viral, it becomes crucial to infer their intent and potentially associated harmfulness to take timely measures as needed. A common problem associated with meme comprehension lies in detecting the entities referenced and characterizing the role of each of these entities. Here, we aim to understand whether the meme glorifies, vilifies, or victimizes each entity it refers to. To this end, we address the task of role identification of entities in harmful memes, i.e., detecting who is the ‘hero’, the ‘villain’, and the ‘victim’ in the meme, if any. We utilize HVVMemes – a memes dataset on US Politics and Covid-19 memes, released recently as part of the CONSTRAINT@ACL-2022 shared-task. It contains memes, entities referenced, and their associated roles: hero, villain, victim, and other. We further design VECTOR (Visual-semantic role dEteCToR), a robust multi-modal framework for the task, which integrates entity-based contextual information in the multi-modal representation and compare it to several standard unimodal (text-only or image-only) or multi-modal (image+text) models. Our experimental results show that our proposed model achieves an improvement of 4% over the best baseline and 1% over the best competing stand-alone submission from the shared-task. Besides divulging an extensive experimental setup with comparative analyses, we finally highlight the challenges encountered in addressing the complex task of semantic role labeling within memes.

arxiv情報

著者 Shivam Sharma,Atharva Kulkarni,Tharun Suresh,Himanshi Mathur,Preslav Nakov,Md. Shad Akhtar,Tanmoy Chakraborty
発行日 2023-04-10 20:07:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.CY パーマリンク