Toxic comments reduce the activity of volunteer editors on Wikipedia

要約

タイトル:Wikipediaのボランティア編集者の活動を有害なコメントが減少させる

要約:
– Wikipediaは、世界中の何百万人ものユーザーが情報源として利用する最大の百科事典で、ボランティア編集者だけで運営されている。
– この論文では、Wikipediaの6つの言語版において8.5百万人の編集者が投稿した5,700万件のコメントを分析し、有害な発言が編集者の行動に与える潜在的な影響を調べた。
– 有害なコメントは一貫して編集者の活動を減少させ、短期的には1人当たり0.5〜2日の活動喪失につながる。これはアクティブな投稿者の数を考慮すると多数の人間年に相当する。
– 有害なコメントの影響は長期的にはさらに大きく、編集者がプロジェクトから離れるリスクを大幅に増加させる。
– エージェントベースのモデルを使用して、Wikipediaへの有害な発言はプロジェクト全体の進展を妨げる可能性があることを示した。
– Wikipediaのような協業プラットフォームで有害な発言を緩和することが、持続的な成功を確保するために重要であることを強調している。

要約(オリジナル)

Wikipedia is one of the most successful collaborative projects in history. It is the largest encyclopedia ever created, with millions of users worldwide relying on it as the first source of information as well as for fact-checking and in-depth research. As Wikipedia relies solely on the efforts of its volunteer-editors, its success might be particularly affected by toxic speech. In this paper, we analyze all 57 million comments made on user talk pages of 8.5 million editors across the six most active language editions of Wikipedia to study the potential impact of toxicity on editors’ behaviour. We find that toxic comments consistently reduce the activity of editors, leading to an estimated loss of 0.5-2 active days per user in the short term. This amounts to multiple human-years of lost productivity when considering the number of active contributors to Wikipedia. The effects of toxic comments are even greater in the long term, as they significantly increase the risk of editors leaving the project altogether. Using an agent-based model, we demonstrate that toxicity attacks on Wikipedia have the potential to impede the progress of the entire project. Our results underscore the importance of mitigating toxic speech on collaborative platforms such as Wikipedia to ensure their continued success.

arxiv情報

著者 Ivan Smirnov,Camelia Oprea,Markus Strohmaier
発行日 2023-04-26 13:59:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.CY パーマリンク