要約
ウィキペディアは世界最大のオンライン百科事典であるが、共同作業を通じて記事の質を維持することは難しい。ウィキペディアは品質尺度を設計したが、このような手作業による評価プロセスでは、多くの記事が評価されないままである。我々は、ウィキペディアの記事の品質を自動的に測定するための既存の方法をレビューし、機械学習アルゴリズム、記事の特徴、品質メトリクス、使用されるデータセットを特定し、比較し、149の異なる研究を検証し、それらの共通点とギャップを探る。文献は広範囲に及び、アプローチは過去の技術的傾向に沿っている。しかし、機械学習はまだウィキペディアで広く使われておらず、私たちの分析が将来の研究者がこの現実を変える一助となることを願っている。
要約(オリジナル)
Wikipedia is the world’s largest online encyclopedia, but maintaining article quality through collaboration is challenging. Wikipedia designed a quality scale, but with such a manual assessment process, many articles remain unassessed. We review existing methods for automatically measuring the quality of Wikipedia articles, identifying and comparing machine learning algorithms, article features, quality metrics, and used datasets, examining 149 distinct studies, and exploring commonalities and gaps in them. The literature is extensive, and the approaches follow past technological trends. However, machine learning is still not widely used by Wikipedia, and we hope that our analysis helps future researchers change that reality.
arxiv情報
著者 | Pedro Miguel Moás,Carla Teixeira Lopes |
発行日 | 2023-10-03 17:45:39+00:00 |
arxivサイト | arxiv_id(pdf) |