要約
タイトル:機械学習モデルを用いたソーシャルメディアの有害コメントの分類
要約:
– ソーシャルメディアプラットフォームで見られる有害コメントの問題が提起されている。
– 無礼で侮辱的な表現が含まれるコメントがあるため、オンライン上で議論から人々を引き離す反社会的行動が起こる。
– エクスプリシットなコンテンツを含むコメントには、有害、重度有害、卑猥、脅威、侮辱、アイデンティティ・ヘイトのような様々なカテゴリーがある。
– このような行動はオンラインハラスメントやサイバーブルlyingを引き起こし、個人が意見やアイデアを表現するのをやめざるを得なくなる。
– ユーザーを保護するために、企業はコメントをフラッグ付けして、ユーザーをブロックすることから始めている。
– この要約では、Lstm-cnnモデルを使用して、有害なコメントと非有害なコメントを高い精度で区別できる分類器を作成することを提案する。
– 分類器は、組織がコメントセクションの有毒度をよりよく調べるのに役立つことができる。
要約(オリジナル)
The abstract outlines the problem of toxic comments on social media platforms, where individuals use disrespectful, abusive, and unreasonable language that can drive users away from discussions. This behavior is referred to as anti-social behavior, which occurs during online debates, comments, and fights. The comments containing explicit language can be classified into various categories, such as toxic, severe toxic, obscene, threat, insult, and identity hate. This behavior leads to online harassment and cyberbullying, which forces individuals to stop expressing their opinions and ideas. To protect users from offensive language, companies have started flagging comments and blocking users. The abstract proposes to create a classifier using an Lstm-cnn model that can differentiate between toxic and non-toxic comments with high accuracy. The classifier can help organizations examine the toxicity of the comment section better.
arxiv情報
著者 | K. Poojitha,A. Sai Charish,M. Arun Kuamr Reddy,S. Ayyasamy |
発行日 | 2023-04-14 05:40:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI