PejorativITy: Disambiguating Pejorative Epithets to Improve Misogyny Detection in Italian Tweets

要約

女性蔑視はしばしば比喩的な言葉で表現される。中立的な言葉の中には、蔑称として機能するときに否定的な意味合いを持つものもある。このような言葉の意味を曖昧にすることは、女性蔑視の検出に役立つかもしれない。このような課題を解決するために、我々はPejorativITyを発表する。PejorativITyは1,200のイタリア語のツイートを手作業でアノテーションした新しいコーパスで、単語レベルで侮蔑語、文レベルで女性蔑視を検出する。曖昧性のない単語に関する情報を、女性蔑視検出をターゲットとしたモデルに注入することの影響を評価する。特に、侮蔑的な情報の連結と、曖昧な単語を一義的な用語で置き換えるという2つの異なる注入のアプローチを検討する。我々のコーパスとイタリア語のツイートに関する2つの一般的なベンチマークを用いた実験結果は、どちらのアプローチも大きな分類の改善につながることを示しており、語義の曖昧性解消が女性嫌悪検出のための有望な予備ステップであることを示している。さらに、文脈的な単語埋め込み解析とプロンプティングにより、蔑称に対するLLMの理解を調査する。

要約(オリジナル)

Misogyny is often expressed through figurative language. Some neutral words can assume a negative connotation when functioning as pejorative epithets. Disambiguating the meaning of such terms might help the detection of misogyny. In order to address such task, we present PejorativITy, a novel corpus of 1,200 manually annotated Italian tweets for pejorative language at the word level and misogyny at the sentence level. We evaluate the impact of injecting information about disambiguated words into a model targeting misogyny detection. In particular, we explore two different approaches for injection: concatenation of pejorative information and substitution of ambiguous words with univocal terms. Our experimental results, both on our corpus and on two popular benchmarks on Italian tweets, show that both approaches lead to a major classification improvement, indicating that word sense disambiguation is a promising preliminary step for misogyny detection. Furthermore, we investigate LLMs’ understanding of pejorative epithets by means of contextual word embeddings analysis and prompting.

arxiv情報

著者 Arianna Muti,Federico Ruggeri,Cagri Toraman,Lorenzo Musetti,Samuel Algherini,Silvia Ronchi,Gianmarco Saretto,Caterina Zapparoli,Alberto Barrón-Cedeño
発行日 2024-04-03 12:24:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク