要約
このペーパーでは、群衆と専門家の注釈をChatGPTと統合することにより、オンライン会話で言語を不適切にターゲットにする方法を紹介します。
Redditの英語の会話スレッドに焦点を当て、個人またはグループをターゲットにするコメントを調べます。
私たちのアプローチには、さまざまなターゲットカテゴリの多様なデータセットと、会話コンテキスト内の特定のターゲット単語の多様なデータセットをラベル付けする包括的なアノテーションフレームワークが含まれます。
私たちは、人間の専門家、群衆の出版者、およびChatGPTからの注釈の比較分析を実行し、明示的なヘイトスピーチと微妙な差別言語の両方を認識する際に、各方法の強みと制限を明らかにします。
私たちの調査結果は、ヘイトスピーチを特定し、社会的信念や身体イメージなどのターゲティングの新しいカテゴリを明らかにする際の文脈的要因の重要な役割を強調しています。
また、注釈に伴う課題と主観的な判断、および微妙な言語を把握するためのChatGPTの限界にも取り組みます。
この研究は、オンラインの安全性と包括性を高めるために、自動化されたコンテンツモデレーション戦略を改善するための洞察を提供します。
要約(オリジナル)
This paper introduces a method for detecting inappropriately targeting language in online conversations by integrating crowd and expert annotations with ChatGPT. We focus on English conversation threads from Reddit, examining comments that target individuals or groups. Our approach involves a comprehensive annotation framework that labels a diverse data set for various target categories and specific target words within the conversational context. We perform a comparative analysis of annotations from human experts, crowd annotators, and ChatGPT, revealing strengths and limitations of each method in recognizing both explicit hate speech and subtler discriminatory language. Our findings highlight the significant role of contextual factors in identifying hate speech and uncover new categories of targeting, such as social belief and body image. We also address the challenges and subjective judgments involved in annotation and the limitations of ChatGPT in grasping nuanced language. This study provides insights for improving automated content moderation strategies to enhance online safety and inclusivity.
arxiv情報
著者 | Baran Barbarestani,Isa Maks,Piek Vossen |
発行日 | 2025-05-22 16:10:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google