Graphically Speaking: Unmasking Abuse in Social Media with Conversation Insights

要約

ソーシャルメディアの会話で虐待的な言語を検出することは、虐待性を特定することはしばしば会話の文脈に依存しているため、重要な課題をもたらします。
従来の虐待的な言語検出(ALD)モデルは、しばしばこのコンテキストを見落としているため、信頼できないパフォーマンスメトリックにつながる可能性があります。
会話のコンテキストを統合する最近の自然言語処理(NLP)方法は、多くの場合、限られた単純化された表現に依存し、一貫性のない結果を報告します。
この論文では、グラフニューラルネットワーク(GNNS)を利用してソーシャルメディアの会話をグラフとしてモデル化する新しいアプローチを提案します。ノードはコメントを表し、エッジは応答構造をキャプチャします。
さまざまなグラフ表現とコンテキストウィンドウを体系的に調査して、ALDの最適な構成を識別します。
GNNモデルは、コンテキストに依存しないベースラインと線形コンテキスト認識方法の両方を上回り、F1スコアの大幅な改善を達成します。
これらの調査結果は、構造化された会話コンテキストの重要な役割を示し、GNNをコンテキストを認識する虐待的な言語検出を進めるための堅牢なフレームワークとして確立します。

要約(オリジナル)

Detecting abusive language in social media conversations poses significant challenges, as identifying abusiveness often depends on the conversational context, characterized by the content and topology of preceding comments. Traditional Abusive Language Detection (ALD) models often overlook this context, which can lead to unreliable performance metrics. Recent Natural Language Processing (NLP) methods that integrate conversational context often depend on limited and simplified representations, and report inconsistent results. In this paper, we propose a novel approach that utilize graph neural networks (GNNs) to model social media conversations as graphs, where nodes represent comments, and edges capture reply structures. We systematically investigate various graph representations and context windows to identify the optimal configuration for ALD. Our GNN model outperform both context-agnostic baselines and linear context-aware methods, achieving significant improvements in F1 scores. These findings demonstrate the critical role of structured conversational context and establish GNNs as a robust framework for advancing context-aware abusive language detection.

arxiv情報

著者 Célia Nouri,Jean-Philippe Cointet,Chloé Clavel
発行日 2025-04-02 17:03:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク