要約
有害な言語使用の動的な性質を考慮すると、有害な範囲を検出するための自動化された方法は分布の変化に遭遇する可能性があります。
この現象を調査するために、クロスドメイン条件下で有害なスパンを検出するための 3 つのアプローチ (語彙ベース、理論的根拠の抽出、および微調整された言語モデル) を評価します。
私たちの調査結果は、既製のレキシコンを使用する単純な方法が、クロスドメイン設定で最高のパフォーマンスを発揮することを示しています。
クロスドメインエラー分析は、(1) 理論的根拠抽出方法は偽陰性を起こしやすい、一方、(2) 言語モデルは、ドメイン内のケースでは最高のパフォーマンスを発揮するにもかかわらず、辞書よりも明示的に有害な単語を思い出すことが少なく、特定のタイプの単語を呼び出す傾向があることを示唆しています。
誤検知の可能性があります。
私たちのコードは https://github.com/sfschouten/有毒-クロスドメイン で公開されています。
要約(オリジナル)
Given the dynamic nature of toxic language use, automated methods for detecting toxic spans are likely to encounter distributional shift. To explore this phenomenon, we evaluate three approaches for detecting toxic spans under cross-domain conditions: lexicon-based, rationale extraction, and fine-tuned language models. Our findings indicate that a simple method using off-the-shelf lexicons performs best in the cross-domain setup. The cross-domain error analysis suggests that (1) rationale extraction methods are prone to false negatives, while (2) language models, despite performing best for the in-domain case, recall fewer explicitly toxic words than lexicons and are prone to certain types of false positives. Our code is publicly available at: https://github.com/sfschouten/toxic-cross-domain.
arxiv情報
著者 | Stefan F. Schouten,Baran Barbarestani,Wondimagegnhue Tufa,Piek Vossen,Ilia Markov |
発行日 | 2023-06-16 06:10:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google