Articulation Work and Tinkering for Fairness in Machine Learning

要約

公平な AI の分野は、計算モデリングを通じて偏ったアルゴリズムに対抗することを目的としています。
しかし、過度に技術的で還元主義的な手法の使用を永続させているとして批判が高まっています。
その結果、公正な AI に関するより社会指向かつ学際的な (SOI) 観点に取り組むための新しいアプローチがこの分野に登場しています。
この論文では、この力関係を出発点として、コンピューター サイエンス (CS) と SOI 研究の間の緊張関係を研究します。
STS と CSCW の理論を活用することで、私たちは公正な AI 研究を「組織調整」の問題として位置づけます。研究を「実行可能」にするのは、作業組織の 3 つのレベル (社会世界、研究室、実験) をうまく調整することです。
CS 研究者への定性的インタビューに基づいて、公平な AI の場合に実行可能な研究に必要なタスク、リソース、アクターを分析します。
CS 研究者は SOI にある程度関与しているが、組織状況、表現活動、社会世界の曖昧さが SOI 研究の実行可能性を制約していることがわかりました。
私たちは調査結果に基づいて、公正な AI が進化し続ける中で CS と SOI を調整するための問題を特定し、議論します。

要約(オリジナル)

The field of fair AI aims to counter biased algorithms through computational modelling. However, it faces increasing criticism for perpetuating the use of overly technical and reductionist methods. As a result, novel approaches appear in the field to address more socially-oriented and interdisciplinary (SOI) perspectives on fair AI. In this paper, we take this dynamic as the starting point to study the tension between computer science (CS) and SOI research. By drawing on STS and CSCW theory, we position fair AI research as a matter of ‘organizational alignment’: what makes research ‘doable’ is the successful alignment of three levels of work organization (the social world, the laboratory and the experiment). Based on qualitative interviews with CS researchers, we analyze the tasks, resources, and actors required for doable research in the case of fair AI. We find that CS researchers engage with SOI to some extent, but organizational conditions, articulation work, and ambiguities of the social world constrain the doability of SOI research. Based on our findings, we identify and discuss problems for aligning CS and SOI as fair AI continues to evolve.

arxiv情報

著者 Miriam Fahimi,Mayra Russo,Kristen M. Scott,Maria-Esther Vidal,Bettina Berendt,Katharina Kinder-Kurlanda
発行日 2024-07-23 14:11:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, I.2.0 パーマリンク