Preservation of Feature Stability in Machine Learning Under Data Uncertainty for Decision Support in Critical Domains

要約

重要な領域での意思決定をサポートするために機械学習 (ML) の導入が進む世界では、意思決定者に説明可能で安定した関連性の高い入力を提供することが基本となります。
欠損データの下で機械学習がどのように機能するか、そしてそれが特徴の変動にどのような影響を与えるかを理解することが最も重要です。
機械学習アプローチは、理想化された一連の機能に依存する意思決定アプローチの標準化に焦点を当てているため、これはさらに重要です。
しかし、人間の活動における意思決定は、重要な領域であっても不完全なデータに依存することがよくあります。
この論文では、より記述的で人間の意思決定を模倣し、自然な統合を可能にする分類に焦点を当てた最近導入された機械学習手法と比較して、最適な決定を探す従来の機械学習手法を使用した一連の実験を実施することで、このギャップに対処しています。
説明可能性。
ML 記述的アプローチは、データの不完全性が増加しても特徴選択の安定性を確保しながら、より高い分類精度を維持できることがわかりました。
これは、記述的な分類手法が不確実な意思決定シナリオに役立つ可能性があることを示唆しています。

要約(オリジナル)

In a world where Machine Learning (ML) is increasingly deployed to support decision-making in critical domains, providing decision-makers with explainable, stable, and relevant inputs becomes fundamental. Understanding how machine learning works under missing data and how this affects feature variability is paramount. This is even more relevant as machine learning approaches focus on standardising decision-making approaches that rely on an idealised set of features. However, decision-making in human activities often relies on incomplete data, even in critical domains. This paper addresses this gap by conducting a set of experiments using traditional machine learning methods that look for optimal decisions in comparison to a recently deployed machine learning method focused on a classification that is more descriptive and mimics human decision making, allowing for the natural integration of explainability. We found that the ML descriptive approach maintains higher classification accuracy while ensuring the stability of feature selection as data incompleteness increases. This suggests that descriptive classification methods can be helpful in uncertain decision-making scenarios.

arxiv情報

著者 Karol Capała,Paulina Tworek,Jose Sousa
発行日 2024-08-06 11:29:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク