要約
近年、人工知能、そしてより一般的には自動意思決定システムの使用と効率の向上により、そのようなシステムに関連するリスクに対する認識が高まり、歓迎されるようになりました。
そのようなリスクの 1 つは、これらのシステムの多くが意思決定を調整し最適化するために学習するデータに存在するバイアスや不当な差異が永続化し、さらには増幅するというリスクです。
この認識は、一方では、いくつかの科学界が、そのような偏見や格差を評価し、定量化し、おそらく緩和するためのより適切な方法や手法を考案することを奨励しました。
その一方で、政策立案者を含む社会のより多くの層が公正なアルゴリズムを求めるようになっています。
現在、多くの優れた学際的な研究が行われている一方で、依然として根本的に欠けているのは、公正なアルゴリズムを持つこと自体はほぼ無意味な要件であり、実用化するには多くの追加の社会的選択肢で補完する必要があるという認識であると私たちは考えています。
つまり、社会が自動意思決定システムに要求していることと、この要求が現実世界のシナリオで実際に意味することとの間には、隔たりがあるのです。
この研究では、このような中断の主な特徴を概説し、自動化された意思決定システムにおける公平性の要求の高まりに具体的な意味を与えるために、社会として私たちが対処しなければならない一連の重要な未解決の点を正確に指摘します。
要約(オリジナル)
In recent years, the increase in the usage and efficiency of Artificial Intelligence and, more in general, of Automated Decision-Making systems has brought with it an increasing and welcome awareness of the risks associated with such systems. One of such risks is that of perpetuating or even amplifying bias and unjust disparities present in the data from which many of these systems learn to adjust and optimise their decisions. This awareness has on the one hand encouraged several scientific communities to come up with more and more appropriate ways and methods to assess, quantify, and possibly mitigate such biases and disparities. On the other hand, it has prompted more and more layers of society, including policy makers, to call for fair algorithms. We believe that while many excellent and multidisciplinary research is currently being conducted, what is still fundamentally missing is the awareness that having fair algorithms is per se a nearly meaningless requirement that needs to be complemented with many additional social choices to become actionable. Namely, there is a hiatus between what the society is demanding from Automated Decision-Making systems, and what this demand actually means in real-world scenarios. In this work, we outline the key features of such a hiatus and pinpoint a set of crucial open points that we as a society must address in order to give a concrete meaning to the increasing demand of fairness in Automated Decision-Making systems.
arxiv情報
著者 | Daniele Regoli,Alessandro Castelnovo,Nicole Inverardi,Gabriele Nanino,Ilaria Penco |
発行日 | 2024-08-14 16:01:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google