要約
近年、有害コンテンツやヘイトスピーチがインターネット上で蔓延している。オンライン新聞やフォーラムのモデレーターは、法的規制もあって、読者のコメントを注意深く確認し、必要であれば削除することが求められるようになった。これは手間のかかる作業である。大規模言語モデルのプロバイダーの中には、ヘイトスピーチの自動検出や有害コンテンツの識別のためのソリューションをすでに提供しているところもある。OpenAIのGPT-4o、Jigsaw(Google)のPerspective API、OpenAIのModeration APIなどだ。オンライン新聞の読者コメントからヘイトスピーチを検出するツールを開発するために特別に作成された、ドイツのテストデータセットHOCON34kに基づいて、これらのソリューションが互いに比較され、HOCON34kベースラインと比較される。テストデータセットには1,592の注釈付きテキストサンプルが含まれる。GPT-4oでは、3つの異なるプロンプトが使用され、ゼロショット、ワンショット、フューショットアプローチが採用された。実験の結果、GPT-4oはパースペクティブAPIとモデレーションAPIの両方を上回り、MCCとF2スコアの複合指標で測定して、HOCON34kベースラインを約5ポイント上回った。
要約(オリジナル)
In recent years, toxic content and hate speech have become widespread phenomena on the internet. Moderators of online newspapers and forums are now required, partly due to legal regulations, to carefully review and, if necessary, delete reader comments. This is a labor-intensive process. Some providers of large language models already offer solutions for automated hate speech detection or the identification of toxic content. These include GPT-4o from OpenAI, Jigsaw’s (Google) Perspective API, and OpenAI’s Moderation API. Based on the selected German test dataset HOCON34k, which was specifically created for developing tools to detect hate speech in reader comments of online newspapers, these solutions are compared with each other and against the HOCON34k baseline. The test dataset contains 1,592 annotated text samples. For GPT-4o, three different promptings are used, employing a Zero-Shot, One-Shot, and Few-Shot approach. The results of the experiments demonstrate that GPT-4o outperforms both the Perspective API and the Moderation API, and exceeds the HOCON34k baseline by approximately 5 percentage points, as measured by a combined metric of MCC and F2-score.
arxiv情報
著者 | Manuel Weber,Moritz Huber,Maximilian Auch,Alexander Döschl,Max-Emanuel Keller,Peter Mandl |
発行日 | 2025-01-02 13:48:56+00:00 |
arxivサイト | arxiv_id(pdf) |