Causality Is Key to Understand and Balance Multiple Goals in Trustworthy ML and Foundation Models

要約

機械学習(ML)システムの信頼性を確保することは、機械学習(ML)システムがますます重要な領域に組み込まれるようになる中で極めて重要である。本稿では、公正性、プライバシー、頑健性、正確性、説明可能性など、信頼できるMLの主要な原則間のトレードオフをナビゲートするために、因果的手法を機械学習に統合することを提唱する。これらの目的は理想的には同時に満たされるべきであるが、しばしば単独で取り組まれ、対立や最適でない解決策をもたらす。本稿では、公正さと正確さ、あるいはプライバシーと頑健性といった目標の整合に成功した、MLにおける因果性の既存の応用例を引きながら、信頼できるMLと基礎モデルの両方において、競合する複数の目標のバランスを取るために因果的アプローチが不可欠であることを主張する。これらのトレードオフを強調するだけでなく、因果関係をどのようにMLや基礎モデルに実用的に組み込むことができるかを検討し、その信頼性と解釈可能性を高めるための解決策を提示する。最後に、因果関係のフレームワークを採用する際の課題、限界、機会について議論し、より説明責任のある倫理的に健全なAIシステムへの道を開く。

要約(オリジナル)

Ensuring trustworthiness in machine learning (ML) systems is crucial as they become increasingly embedded in high-stakes domains. This paper advocates for integrating causal methods into machine learning to navigate the trade-offs among key principles of trustworthy ML, including fairness, privacy, robustness, accuracy, and explainability. While these objectives should ideally be satisfied simultaneously, they are often addressed in isolation, leading to conflicts and suboptimal solutions. Drawing on existing applications of causality in ML that successfully align goals such as fairness and accuracy or privacy and robustness, this paper argues that a causal approach is essential for balancing multiple competing objectives in both trustworthy ML and foundation models. Beyond highlighting these trade-offs, we examine how causality can be practically integrated into ML and foundation models, offering solutions to enhance their reliability and interpretability. Finally, we discuss the challenges, limitations, and opportunities in adopting causal frameworks, paving the way for more accountable and ethically sound AI systems.

arxiv情報

著者 Ruta Binkyte,Ivaxi Sheth,Zhijing Jin,Mohammad Havaei,Bernhard Schölkopf,Mario Fritz
発行日 2025-03-03 10:00:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク