Beyond Toxic: Toxicity Detection Datasets are Not Enough for Brand Safety

要約

ソーシャル メディアでのユーザー生成コンテンツの急速な成長により、自動化されたコンテンツ モデレートに対する需要が大幅に高まっています。
ヘイトスピーチの検出と有害なコメントの分類のタスクに対して、さまざまな方法とフレームワークが提案されています。
この作業では、一般的なデータセットを組み合わせて、これらのタスクをブランド セーフティに拡張します。
ブランドセーフティは、広告が表示されるべきではないコンテキストを特定することによって商業的なブランドを保護することを目的としており、有害なコンテンツだけでなく、他の潜在的に有害なコンテンツも対象としています。
これらのデータセットには異なるラベル セットが含まれているため、問題全体をバイナリ分類タスクとして扱います。
一般的な毒性検出データセットをブランドセーフティのサブセットに適用することにより、ブランドセーフティ固有のデータセットを構築する必要性を実証し、テキスト分類における加重サンプリング戦略の効果を経験的に分析します。

要約(オリジナル)

The rapid growth in user generated content on social media has resulted in a significant rise in demand for automated content moderation. Various methods and frameworks have been proposed for the tasks of hate speech detection and toxic comment classification. In this work, we combine common datasets to extend these tasks to brand safety. Brand safety aims to protect commercial branding by identifying contexts where advertisements should not appear and covers not only toxicity, but also other potentially harmful content. As these datasets contain different label sets, we approach the overall problem as a binary classification task. We demonstrate the need for building brand safety specific datasets via the application of common toxicity detection datasets to a subset of brand safety and empirically analyze the effects of weighted sampling strategies in text classification.

arxiv情報

著者 Elizaveta Korotkova,Isaac Kwan Yin Chung
発行日 2023-03-27 11:29:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク