Towards Equitable Agile Research and Development of AI and Robotics

要約

機械学習 (ML) および「人工知能」 (「AI」) の手法は、AI を搭載したロボットと同様に、既存の偏見や偏見を複製および増幅する傾向があります。
たとえば、顔認識を備えたロボットは黒人女性を人間として識別できませんでしたが、他のロボットは黒人男性などの人々を外見だけで犯罪者として分類しました。
「モジュール性の文化」とは、「AI サプライ チェーン」の雇用ポジション全体で、危害が「範囲外」または他人の責任であると認識されることを意味します。
事件は日常的に発生しており (incidentdatabase.ai には 2000 を超える例がリストされています)、人々の権利を完全に尊重できる組織がほとんどないことを示しています。
主張されている公平性、多様性、包括性(EDI または DEI)の目標を達成する。
あるいは、組織や成果物におけるそのような失敗を認識して対処することもできます。
私たちは、広く実践されている研究開発(R&D)プロジェクト管理手法を適応させて、組織の公平性能力を構築し、既知の証拠に基づくベストプラクティスをより適切に統合するためのフレームワークを提案します。
プロジェクトチームが最も有望な実践方法、スキルセット、組織文化、権利に基づく公平性、公平性、説明責任、倫理的問題をできるだけ早く検出して対処するための方法を、害が少なく簡単な場合にどのように組織して運用できるかについて説明します。
和らげる;
次に、予期せぬインシデントを監視して、適応的かつ建設的に対処します。
私たちの主な例では、研究開発チームを組織するために最も広く採用されているアプローチの 1 つであるスクラムに基づいたアジャイル開発プロセスを採用しています。
また、提案されたフレームワークの限界と将来の研究の方向性についても説明します。

要約(オリジナル)

Machine Learning (ML) and ‘Artificial Intelligence’ (‘AI’) methods tend to replicate and amplify existing biases and prejudices, as do Robots with AI. For example, robots with facial recognition have failed to identify Black Women as human, while others have categorized people, such as Black Men, as criminals based on appearance alone. A ‘culture of modularity’ means harms are perceived as ‘out of scope’, or someone else’s responsibility, throughout employment positions in the ‘AI supply chain’. Incidents are routine enough (incidentdatabase.ai lists over 2000 examples) to indicate that few organizations are capable of completely respecting peoples’ rights; meeting claimed equity, diversity, and inclusion (EDI or DEI) goals; or recognizing and then addressing such failures in their organizations and artifacts. We propose a framework for adapting widely practiced Research and Development (R&D) project management methodologies to build organizational equity capabilities and better integrate known evidence-based best practices. We describe how project teams can organize and operationalize the most promising practices, skill sets, organizational cultures, and methods to detect and address rights-based fairness, equity, accountability, and ethical problems as early as possible when they are often less harmful and easier to mitigate; then monitor for unforeseen incidents to adaptively and constructively address them. Our primary example adapts an Agile development process based on Scrum, one of the most widely adopted approaches to organizing R&D teams. We also discuss limitations of our proposed framework and future research directions.

arxiv情報

著者 Andrew Hundt,Julia Schuller,Severin Kacianka
発行日 2024-02-13 06:13:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, cs.RO, cs.SE パーマリンク