Liability regimes in the age of AI: a use-case driven analysis of the burden of proof

要約

人工知能 (AI) を活用した新たなテクノロジーは、社会をより良い方向に破壊的に変革する可能性を秘めています。
特に、データ駆動型の学習アプローチ (つまり、機械学習 (ML)) は、さまざまなアプリケーション ドメインにおける複数のテクノロジの進歩における真の革命でした。
しかし同時に、安全性と基本的権利の両方に潜在的なリスクをもたらすこれらの方法論の特定の固有の特性についての懸念が高まっています.
養子縁組プロセスには、これらのリスクを最小限に抑えるためのメカニズム (安全規則など) がありますが、これらは害が発生する可能性を排除するものではなく、被害が発生した場合、被害者は補償を求めることができるはずです。
したがって、責任体制は、これらのシステムを使用または操作する被害者の基本的な保護を確保する上で重要な役割を果たします。
ただし、因果関係、不透明性、予測不可能性、または自己学習機能と継続的な学習機能の欠如など、AI システムを本質的に危険なものにする同じ特性は、因果関係の証明に関してはかなりの困難につながる可能性があります。
このホワイト ペーパーでは、これらの困難を説明する 3 つのケース スタディと、それらに到達するための方法論を紹介します。
具体的には、清掃ロボット、配達用ドローン、教育用ロボットの事例に取り組みます。
提案された分析の結果は、AI 技術が関与する場合の被害者の立証責任を軽減するために、責任体制を修正する必要があることを示唆しています。

要約(オリジナル)

New emerging technologies powered by Artificial Intelligence (AI) have the potential to disruptively transform our societies for the better. In particular, data-driven learning approaches (i.e., Machine Learning (ML)) have been a true revolution in the advancement of multiple technologies in various application domains. But at the same time there is growing concern about certain intrinsic characteristics of these methodologies that carry potential risks to both safety and fundamental rights. Although there are mechanisms in the adoption process to minimize these risks (e.g., safety regulations), these do not exclude the possibility of harm occurring, and if this happens, victims should be able to seek compensation. Liability regimes will therefore play a key role in ensuring basic protection for victims using or interacting with these systems. However, the same characteristics that make AI systems inherently risky, such as lack of causality, opacity, unpredictability or their self and continuous learning capabilities, may lead to considerable difficulties when it comes to proving causation. This paper presents three case studies, as well as the methodology to reach them, that illustrate these difficulties. Specifically, we address the cases of cleaning robots, delivery drones and robots in education. The outcome of the proposed analysis suggests the need to revise liability regimes to alleviate the burden of proof on victims in cases involving AI technologies.

arxiv情報

著者 David Fernández Llorca,Vicky Charisi,Ronan Hamon,Ignacio Sánchez,Emilia Gómez
発行日 2023-03-17 09:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク