Detecting Harmful Content On Online Platforms: What Platforms Need Vs. Where Research Efforts Go

要約

オンライン プラットフォーム上での有害なコンテンツの蔓延は大きな社会問題であり、ヘイトスピーチ、攻撃的な言葉、いじめや嫌がらせ、誤った情報、スパム、暴力、生々しいコンテンツ、性的虐待、自傷行為など、さまざまな形で現れます。
オンライン プラットフォームは、社会的危害を制限し、法律を遵守し、ユーザーにとってより包括的な環境を構築するために、そのようなコンテンツを管理しようとしています。
研究者たちは、有害なコンテンツを自動的に検出するためのさまざまな方法を開発してきましたが、何が有害とみなされるかはプラットフォームやコンテキストに依存することが多いため、多くの場合、特定の下位問題または狭いコミュニティに焦点を当てています。
オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出するためにどのような研究努力が行われているかの間には、現在二分法があると私たちは主張します。
したがって、私たちはこの観点から既存の方法とオンラインプラットフォームによるコンテンツモデレーションポリシーを調査し、将来の取り組みの方向性を提案します。

要約(オリジナル)

The proliferation of harmful content on online platforms is a major societal problem, which comes in many different forms including hate speech, offensive language, bullying and harassment, misinformation, spam, violence, graphic content, sexual abuse, self harm, and many other. Online platforms seek to moderate such content to limit societal harm, to comply with legislation, and to create a more inclusive environment for their users. Researchers have developed different methods for automatically detecting harmful content, often focusing on specific sub-problems or on narrow communities, as what is considered harmful often depends on the platform and on the context. We argue that there is currently a dichotomy between what types of harmful content online platforms seek to curb, and what research efforts there are to automatically detect such content. We thus survey existing methods as well as content moderation policies by online platforms in this light and we suggest directions for future work.

arxiv情報

著者 Arnav Arora,Preslav Nakov,Momchil Hardalov,Sheikh Muhammad Sarwar,Vibha Nayak,Yoan Dinkov,Dimitrina Zlatkova,Kyle Dent,Ameya Bhatawdekar,Guillaume Bouchard,Isabelle Augenstein
発行日 2023-06-06 16:22:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SI パーマリンク