要約
ゲーム内の有毒言語は、ゲーム業界とコミュニティのホットポテトになります。
いくつかのオンラインゲーム毒性分析フレームワークとモデルが提案されています。
ただし、ゲーム内チャットの性質により毒性を検出することは依然として困難です。これは非常に短い長さです。
この論文では、ゲーム内の有毒言語共有タスクが、実際のゲーム内チャットデータを使用してどのように確立されたかについて説明します。
さらに、ゲーム内チャットから有毒な言語トークンタグ付け(スロットフィリング)のモデル/フレームワークを提案および紹介します。
関連するコードは、githubで公開されています:https://github.com/yuanzhe-jia/in-game-toxic-setection
要約(オリジナル)
In-game toxic language becomes the hot potato in the gaming industry and community. There have been several online game toxicity analysis frameworks and models proposed. However, it is still challenging to detect toxicity due to the nature of in-game chat, which has extremely short length. In this paper, we describe how the in-game toxic language shared task has been established using the real-world in-game chat data. In addition, we propose and introduce the model/framework for toxic language token tagging (slot filling) from the in-game chat. The relevant code is publicly available on GitHub: https://github.com/Yuanzhe-Jia/In-Game-Toxic-Detection
arxiv情報
著者 | Yuanzhe Jia,Weixuan Wu,Feiqi Cao,Soyeon Caren Han |
発行日 | 2025-04-01 10:12:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google