Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models

要約

機械学習(ML)システムの信頼性を確保することは、ハイステークスドメインにますます組み込まれるため、重要です。
この論文は、因果的方法を機械学習に統合して、公平性、プライバシー、堅牢性、正確性、説明可能性など、信頼できるMLの主要な原則の間でトレードオフをナビゲートすることを提唱しています。
これらの目的は理想的には同時に満たされるべきですが、しばしば孤立して対処され、競合や最適ではないソリューションにつながります。
このペーパーでは、公平性と正確性やプライバシー、堅牢性などの目標をうまく調整するMLの因果関係の既存のアプリケーションに基づいて、信頼できるMLモデルと基礎モデルの両方で複数の競合目標のバランスをとるには因果的アプローチが不可欠であると主張しています。
これらのトレードオフを強調するだけでなく、因果性をMLおよびFoundationモデルに実際に統合する方法を調べ、信頼性と解釈性を高めるソリューションを提供します。
最後に、因果フレームワークを採用する際の課題、制限、機会について説明し、より説明責任のある倫理的に健全なAIシステムへの道を開きます。

要約(オリジナル)

Ensuring trustworthiness in machine learning (ML) systems is crucial as they become increasingly embedded in high-stakes domains. This paper advocates for integrating causal methods into machine learning to navigate the trade-offs among key principles of trustworthy ML, including fairness, privacy, robustness, accuracy, and explainability. While these objectives should ideally be satisfied simultaneously, they are often addressed in isolation, leading to conflicts and suboptimal solutions. Drawing on existing applications of causality in ML that successfully align goals such as fairness and accuracy or privacy and robustness, this paper argues that a causal approach is essential for balancing multiple competing objectives in both trustworthy ML and foundation models. Beyond highlighting these trade-offs, we examine how causality can be practically integrated into ML and foundation models, offering solutions to enhance their reliability and interpretability. Finally, we discuss the challenges, limitations, and opportunities in adopting causal frameworks, paving the way for more accountable and ethically sound AI systems.

arxiv情報

著者 Ruta Binkyte,Ivaxi Sheth,Zhijing Jin,Mohammad Havaei,Bernhard Schölkopf,Mario Fritz
発行日 2025-03-21 14:02:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク