要約
タイトル:アルゴリズム(不)情報分類の不確実性を解消する:責任ある機械学習の展望
要約:
-機械学習(ML)による分類モデルは、オンラインの誤情報や有害と見なされる他のコンテンツの大量または高速化に取り組むためにますます人気があります。
-これらのモデルを構築する際、データサイエンティストは、モデルのトレーニングおよびテストに使用される「真実性」の正当性、権威性、および客観性に関して立場を取る必要があります。これには、政治的、倫理的、知識的な意味合いがありますが、技術論文ではほとんど論じられていません。
-MLによるモデレーションシステムは報告された高い精度とパフォーマンスにもかかわらず、オンラインの公的議論を形成し、誤った信念を補強するなど、不適切な検閲や負の影響を生み出す可能性があります。
-社会学的研究と専門知識の社会学からの理論的洞察を用いて、(不)情報分類のMLモデルの構築プロセスの批判的分析を提供し、モデルの開発中に生じるさまざまな不確実性について特定しました。
-これらのツールがソーシャルメディアプラットフォームによって展開されるにつれ、異なる将来の結果、不確実性、および有害な影響につながる可能性がある重要な瞬間であるアルゴリズム的な偶発性を特定しています。
-私たちは、オンラインでの誤情報や有害なコンテンツのモデレーションのためのMLツールの反省的で責任ある開発に向けた仮の進路を提供することで結論付けています。
要約(オリジナル)
Machine learning (ML) enabled classification models are becoming increasingly popular for tackling the sheer volume and speed of online misinformation and other content that could be identified as harmful. In building these models, data scientists need to take a stance on the legitimacy, authoritativeness and objectivity of the sources of “truth’ used for model training and testing. This has political, ethical and epistemic implications which are rarely addressed in technical papers. Despite (and due to) their reported high accuracy and performance, ML-driven moderation systems have the potential to shape online public debate and create downstream negative impacts such as undue censorship and the reinforcing of false beliefs. Using collaborative ethnography and theoretical insights from social studies of science and expertise, we offer a critical analysis of the process of building ML models for (mis)information classification: we identify a series of algorithmic contingencies–key moments during model development that could lead to different future outcomes, uncertainty and harmful effects as these tools are deployed by social media platforms. We conclude by offering a tentative path toward reflexive and responsible development of ML tools for moderating misinformation and other harmful content online.
arxiv情報
著者 | Andrés Domínguez Hernández,Richard Owen,Dan Saattrup Nielsen,Ryan McConville |
発行日 | 2023-04-13 13:07:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI