要約
最先端の AI モデルには、現実世界に対する人間の理解を支配する因果関係の理解がほとんど欠けています。
その結果、これらのモデルは目に見えないデータに一般化されず、しばしば不公平な結果を生み出し、解釈が困難です。
これは、AI モデルの信頼性の側面を改善するための取り組みにつながっています。
最近では、因果モデリングと推論手法が強力なツールとして登場しています。
このレビューは、AI モデルの信頼性を向上させるために開発された因果関係の方法の概要を読者に提供することを目的としています。
私たちの貢献が、信頼できる AI のための因果関係に基づくソリューションに関する将来の研究の動機となることを願っています。
要約(オリジナル)
State-of-the-art AI models largely lack an understanding of the cause-effect relationship that governs human understanding of the real world. Consequently, these models do not generalize to unseen data, often produce unfair results, and are difficult to interpret. This has led to efforts to improve the trustworthiness aspects of AI models. Recently, causal modeling and inference methods have emerged as powerful tools. This review aims to provide the reader with an overview of causal methods that have been developed to improve the trustworthiness of AI models. We hope that our contribution will motivate future research on causality-based solutions for trustworthy AI.
arxiv情報
著者 | Niloy Ganguly,Dren Fazlija,Maryam Badar,Marco Fisichella,Sandipan Sikdar,Johanna Schrader,Jonas Wallat,Koustav Rudra,Manolis Koubarakis,Gourab K. Patro,Wadhah Zai El Amri,Wolfgang Nejdl |
発行日 | 2023-02-14 11:08:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google