A Classification of Feedback Loops and Their Relation to Biases in Automated Decision-Making Systems

要約

タイトル:自動意思決定システムにおけるフィードバックループの分類と偏見との関係

要約:

・予測ベースの意思決定システムが、様々な分野で増加傾向にある。
・以前の研究により、このようなシステムがフィードバックループによって脆弱であることが示されている。例えば、実際の犯罪率にかかわらず、警察が同じ地域に何度も送り返されることで、既存の偏見がますます悪化してしまうことがある。
・実際には、自動的な意思決定はシステム自体に動的なフィードバック効果をもたらすため、短期的な設計選択でシステムの進化を制御することは困難である。
・研究者たちは、特定のグループに偏りが出ることを防ぐための長期的な解決策を提案し始めているが、これらの介入は主にアドホックなモデリングの仮定に依存しており、MLベースの意思決定システムのフィードバックダイナミクスの厳密な理論的理解が現在不足している。
・本ピアレビュー記事では、動的システム理論の言葉を使って、MLベースの意思決定パイプラインにおける異なるタイプのフィードバックループを厳密に分類する。既存の研究を再検討することにより、この分類がアルゴリズムの公正性に関する研究コミュニティで議論されている多くの例を網羅していることがわかり、フィードバックループの研究に統一的かつ原則的な枠組みを提供している。
・質的分析とレコメンドシステムのシミュレーション例を通じて、フィードバックループの各種類が影響を与える特定のMLバイアスを示す。
・MLベースの意思決定パイプラインにフィードバックループが存在する場合、MLバイアスが永続、強化、または減少することがわかった。

要約(オリジナル)

Prediction-based decision-making systems are becoming increasingly prevalent in various domains. Previous studies have demonstrated that such systems are vulnerable to runaway feedback loops, e.g., when police are repeatedly sent back to the same neighborhoods regardless of the actual rate of criminal activity, which exacerbate existing biases. In practice, the automated decisions have dynamic feedback effects on the system itself that can perpetuate over time, making it difficult for short-sighted design choices to control the system’s evolution. While researchers started proposing longer-term solutions to prevent adverse outcomes (such as bias towards certain groups), these interventions largely depend on ad hoc modeling assumptions and a rigorous theoretical understanding of the feedback dynamics in ML-based decision-making systems is currently missing. In this paper, we use the language of dynamical systems theory, a branch of applied mathematics that deals with the analysis of the interconnection of systems with dynamic behaviors, to rigorously classify the different types of feedback loops in the ML-based decision-making pipeline. By reviewing existing scholarly work, we show that this classification covers many examples discussed in the algorithmic fairness community, thereby providing a unifying and principled framework to study feedback loops. By qualitative analysis, and through a simulation example of recommender systems, we show which specific types of ML biases are affected by each type of feedback loop. We find that the existence of feedback loops in the ML-based decision-making pipeline can perpetuate, reinforce, or even reduce ML biases.

arxiv情報

著者 Nicolò Pagan,Joachim Baumann,Ezzat Elokda,Giulia De Pasquale,Saverio Bolognani,Anikó Hannák
発行日 2023-05-10 11:15:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CY, cs.LG パーマリンク