要約
機械学習によりロボットの能力が大幅に向上し、ロボットが人間の環境で幅広いタスクを実行し、不確実な現実世界に適応できるようになりました。
さまざまな機械学習分野における最近の研究では、これらのアルゴリズムが人間の偏見を再現し、その結果差別的な結果を招かないようにするために、公平性を考慮することの重要性が強調されています。
ロボット学習システムが日常生活の中でますます多くのタスクを実行するようになっており、特定のグループの人々に対する意図しない行動を防ぐためには、そのようなバイアスの影響を理解することが重要です。
この研究では、技術的、倫理的、法的課題にわたる学際的な観点からロボット学習の公平性に関する最初の調査を紹介します。
私たちは、偏見の原因と、それによって生じる差別の種類についての分類法を提案します。
さまざまなロボット学習ドメインの例を使用して、不公平な結果のシナリオとそれを軽減する戦略を検討します。
さまざまな公平性の定義、倫理的および法的考慮事項、公平なロボット学習の方法を取り上げることにより、この分野の初期の進歩を紹介します。
この取り組みにより、私たちは公平なロボット学習における画期的な開発への道を開くことを目指しています。
要約(オリジナル)
Machine learning has significantly enhanced the abilities of robots, enabling them to perform a wide range of tasks in human environments and adapt to our uncertain real world. Recent works in various machine learning domains have highlighted the importance of accounting for fairness to ensure that these algorithms do not reproduce human biases and consequently lead to discriminatory outcomes. With robot learning systems increasingly performing more and more tasks in our everyday lives, it is crucial to understand the influence of such biases to prevent unintended behavior toward certain groups of people. In this work, we present the first survey on fairness in robot learning from an interdisciplinary perspective spanning technical, ethical, and legal challenges. We propose a taxonomy for sources of bias and the resulting types of discrimination due to them. Using examples from different robot learning domains, we examine scenarios of unfair outcomes and strategies to mitigate them. We present early advances in the field by covering different fairness definitions, ethical and legal considerations, and methods for fair robot learning. With this work, we aim to pave the road for groundbreaking developments in fair robot learning.
arxiv情報
著者 | Laura Londoño,Juana Valeria Hurtado,Nora Hertz,Philipp Kellmeyer,Silja Voeneky,Abhinav Valada |
発行日 | 2023-10-29 18:12:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google