OffLanDat: A Community Based Implicit Offensive Language Dataset Generated by Large Language Model Through Prompt Engineering

要約

ソーシャルメディア上に憎悪に満ちた言葉が蔓延することで、社会の幸福に悪影響が及んでいます。
その結果、この問題に優先的に取り組むことが非常に重要になっています。
ヘイトスピーチまたは攻撃的な言語は、明示的な形式と暗黙的な形式の両方で存在しますが、後者は検出がより困難です。
この分野の現在の研究はいくつかの課題に直面しています。
まず、既存のデータセットは主に、明示的に攻撃的なキーワードを含むテキストのコレクションに依存しているため、これらのキーワードを含まない暗黙的に攻撃的なコンテンツをキャプチャすることが困難になります。
第二に、通常の方法論はテキスト分析のみに焦点を当て、コミュニティ情報が提供する貴重な洞察を無視する傾向があります。
この研究論文では、ChatGPT によって生成された、38 の異なるターゲット グループのデータを含むコミュニティ ベースの暗黙的攻撃的言語データセットである新しいデータセット OffLanDat を紹介します。
ChatGPT を使用した攻撃的なテキストの生成には倫理上の制約があるにもかかわらず、暗黙的な攻撃的な言語を効果的に生成するプロンプトベースのアプローチを紹介します。
データの品質を確保するために、私たちは人間によってデータを評価します。
さらに、ChatGPT ではプロンプトベースのゼロショット手法を採用し、ヒューマン アノテーションと ChatGPT アノテーションの検出結果を比較します。
私たちは既存の最先端のモデルを利用して、そのような言語の検出にどれだけ効果があるかを確認します。
私たちはコードとデータセットを他の研究者のために公開します。

要約(オリジナル)

The widespread presence of hateful languages on social media has resulted in adverse effects on societal well-being. As a result, it has become very important to address this issue with high priority. Hate speech or offensive languages exist in both explicit and implicit forms, with the latter being more challenging to detect. Current research in this domain encounters several challenges. Firstly, the existing datasets primarily rely on the collection of texts containing explicit offensive keywords, making it challenging to capture implicitly offensive contents that are devoid of these keywords. Secondly, usual methodologies tend to focus solely on textual analysis, neglecting the valuable insights that community information can provide. In this research paper, we introduce a novel dataset OffLanDat, a community based implicit offensive language dataset generated by ChatGPT containing data for 38 different target groups. Despite limitations in generating offensive texts using ChatGPT due to ethical constraints, we present a prompt-based approach that effectively generates implicit offensive languages. To ensure data quality, we evaluate our data with human. Additionally, we employ a prompt-based Zero-Shot method with ChatGPT and compare the detection results between human annotation and ChatGPT annotation. We utilize existing state-of-the-art models to see how effective they are in detecting such languages. We will make our code and dataset public for other researchers.

arxiv情報

著者 Amit Das,Mostafa Rahgouy,Dongji Feng,Zheng Zhang,Tathagata Bhattacharya,Nilanjana Raychawdhary,Mary Sandage,Lauramarie Pope,Gerry Dozier,Cheryl Seals
発行日 2024-03-28 14:44:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク