An Experimental Study of Dimension Reduction Methods on Machine Learning Algorithms with Applications to Psychometrics

要約

解釈可能な機械学習モデルの開発は、ますます重要な問題になっています。
データ サイエンティストが解釈可能なモデルを開発できる 1 つの方法は、次元削減手法を使用することです。
このホワイト ペーパーでは、探索的グラフ分析 (EGA) と固有変数分析 (UVA) と呼ばれる、ネットワーク心理測定学の文献で開発された 2 つの最近のアプローチを含む、いくつかの次元削減手法を調べます。
EGA と UVA を、機械学習の文献で一般的な他の 2 つの次元削減手法 (主成分分析と独立成分分析) と比較し、変数の実際のデータを削減しませんでした。
EGA と UVA が他の削減技術または削減なしと同様に機能することを示します。
以前の文献と一致して、次元削減により、変数の削減なしと同じ精度が減少、増加、または提供されることを示します。
暫定的な結果では、分類タスクに使用すると、次元削減がパフォーマンスの向上につながる傾向があることがわかりました。

要約(オリジナル)

Developing interpretable machine learning models has become an increasingly important issue. One way in which data scientists have been able to develop interpretable models has been to use dimension reduction techniques. In this paper, we examine several dimension reduction techniques including two recent approaches developed in the network psychometrics literature called exploratory graph analysis (EGA) and unique variable analysis (UVA). We compared EGA and UVA with two other dimension reduction techniques common in the machine learning literature (principal component analysis and independent component analysis) as well as no reduction to the variables real data. We show that EGA and UVA perform as well as the other reduction techniques or no reduction. Consistent with previous literature, we show that dimension reduction can decrease, increase, or provide the same accuracy as no reduction of variables. Our tentative results find that dimension reduction tends to lead to better performance when used for classification tasks.

arxiv情報

著者 Sean H. Merritt,Alexander P. Christensen
発行日 2023-02-17 16:35:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.AP パーマリンク