要約
さまざまなオンラインおよびモバイル決済システムの台頭により、取引詐欺は金融セキュリティに対する重大な脅威となっています。
この研究では、より正確で堅牢な支払いセキュリティ保護モデルを開発するため、特に XGBoost と LightGBM に基づく高度な機械学習モデルのアプリケーションを調査します。
データの信頼性を高めるために、データ ソースを細心の注意を払って処理し、SMOTE (合成マイノリティ オーバーサンプリング技術) を適用してクラスの不均衡に対処し、データ表現を改善しました。
相関性の高い特徴を選択することで、トレーニング プロセスを強化し、モデルのパフォーマンスを向上させることを目指しました。
私たちは、提案したモデルの徹底的なパフォーマンス評価を実施し、ランダム フォレスト、ニューラル ネットワーク、ロジスティック回帰などの従来の手法と比較しました。
精度、再現率、F1 スコアなどの指標を使用して、その有効性を厳密に評価しました。
詳細な分析と比較により、SMOTE と XGBoost および LightGBM の組み合わせにより、支払いセキュリティ保護のための非常に効率的かつ強力なメカニズムが提供されることが明らかになりました。
さらに、XGBoost と LightGBM を Local Ensemble モデルに統合すると、優れたパフォーマンスがさらに実証されました。
SMOTE を組み込んだ後、新しい結合モデルは、従来のモデルと比較して約 6\%、サブモデルと比較して約 5\% の大幅な改善を達成し、顕著な結果を示しました。
要約(オリジナル)
With the rise of various online and mobile payment systems, transaction fraud has become a significant threat to financial security. This study explores the application of advanced machine learning models, specifically based on XGBoost and LightGBM, for developing a more accurate and robust Payment Security Protection Model. To enhance data reliability, we meticulously processed the data sources and applied SMOTE (Synthetic Minority Over-sampling Technique) to address class imbalance and improve data representation. By selecting highly correlated features, we aimed to strengthen the training process and boost model performance. We conducted thorough performance evaluations of our proposed models, comparing them against traditional methods including Random Forest, Neural Network, and Logistic Regression. Using metrics such as Precision, Recall, and F1 Score, we rigorously assessed their effectiveness. Our detailed analyses and comparisons reveal that the combination of SMOTE with XGBoost and LightGBM offers a highly efficient and powerful mechanism for payment security protection. Moreover, the integration of XGBoost and LightGBM in a Local Ensemble model further demonstrated outstanding performance. After incorporating SMOTE, the new combined model achieved a significant improvement of nearly 6\% over traditional models and around 5\% over its sub-models, showcasing remarkable results.
arxiv情報
著者 | Qi Zheng,Chang Yu,Jin Cao,Yongshun Xu,Qianwen Xing,Yinxin Jin |
発行日 | 2024-11-12 16:44:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google