要約
コンテンツ モデレーションは、事前定義されたプラットフォーム ルールに基づいてコンテンツにフラグを立てるプロセスです。
ユーザーを保護し、トラウマ的なコンテンツから人間のモデレーターのメンタルヘルスを保護する AI モデレーターの必要性が高まっています。
以前の研究は憎悪に満ちた/攻撃的な言葉の特定に焦点を当てていましたが、1) モデレーションの決定はルール違反に基づいており、これには攻撃的なスピーチの検出が含まれており、2) そのようなルールはしばしば異なるため、コンテンツ モデレーションの課題に対応するには不十分です。
適応型ソリューションを必要とするコミュニティ。
英語、ドイツ語、スペイン語、フランス語の 56 のサブレディットにまたがる 180 万件の Reddit コメントの多言語データセットを導入することにより、コンテンツ モデレーションの課題を研究することを提案します。
広範な実験的分析を行って、根本的な課題を強調し、クロスリンガル トランスファー、ラベル ノイズ (人間のバイアス) の下での学習、節度モデルのトランスファー、違反したルールの予測などの関連する研究問題を提案します。
当社のデータセットと分析は、自動モデレーションの課題と機会に備えるのに役立ちます。
要約(オリジナル)
Content moderation is the process of flagging content based on pre-defined platform rules. There has been a growing need for AI moderators to safeguard users as well as protect the mental health of human moderators from traumatic content. While prior works have focused on identifying hateful/offensive language, they are not adequate for meeting the challenges of content moderation since 1) moderation decisions are based on violation of rules, which subsumes detection of offensive speech, and 2) such rules often differ across communities which entails an adaptive solution. We propose to study the challenges of content moderation by introducing a multilingual dataset of 1.8 Million Reddit comments spanning 56 subreddits in English, German, Spanish and French. We perform extensive experimental analysis to highlight the underlying challenges and suggest related research problems such as cross-lingual transfer, learning under label noise (human biases), transfer of moderation models, and predicting the violated rule. Our dataset and analysis can help better prepare for the challenges and opportunities of auto moderation.
arxiv情報
著者 | Meng Ye,Karan Sikka,Katherine Atwell,Sabit Hassan,Ajay Divakaran,Malihe Alikhani |
発行日 | 2023-02-19 16:36:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google