Credit Card Fraud Detection Using Advanced Transformer Model

要約

さまざまなオンラインおよびモバイル決済システムの普及に伴い、クレジット カード詐欺が金融セキュリティに対する重大な脅威として浮上しています。
この研究は、より堅牢かつ正確な不正行為検出を目的とした、最新の Transformer モデルの革新的なアプリケーションに焦点を当てています。
データの信頼性を確保するために、データ ソースを細心の注意を払って処理し、データセットのバランスをとり、データの希薄性の問題に大幅に対処しました。
また、トレーニング プロセスを強化するために、相関性の高いベクトルを選択しました。新しい Transformer モデルの信頼性と実用性を保証するために、サポート ベクター マシン (SVM)、ランダム フォレスト、ニューラル ネットワーク、ロジスティックなど、広く採用されているいくつかのモデルとのパフォーマンス比較を実施しました。
回帰。
精度、再現率、F1 スコアなどの指標を使用して、これらのモデルを厳密に比較しました。
これらの詳細な分析と比較を通じて、有望な見通しを備えた非常に効率的で強力な不正行為防止メカニズムを読者に提示します。
この結果は、Transformer モデルが従来のアプリケーションで優れているだけでなく、不正行為検出などのニッチな分野でも大きな可能性を示し、この分野で大きな進歩をもたらすことを示しています。

要約(オリジナル)

With the proliferation of various online and mobile payment systems, credit card fraud has emerged as a significant threat to financial security. This study focuses on innovative applications of the latest Transformer models for more robust and precise fraud detection. To ensure the reliability of the data, we meticulously processed the data sources, balancing the dataset to address the issue of data sparsity significantly. We also selected highly correlated vectors to strengthen the training process.To guarantee the reliability and practicality of the new Transformer model, we conducted performance comparisons with several widely adopted models, including Support Vector Machine (SVM), Random Forest, Neural Network, and Logistic Regression. We rigorously compared these models using metrics such as Precision, Recall, and F1 Score. Through these detailed analyses and comparisons, we present to the readers a highly efficient and powerful anti-fraud mechanism with promising prospects. The results demonstrate that the Transformer model not only excels in traditional applications but also shows great potential in niche areas like fraud detection, offering a substantial advancement in the field.

arxiv情報

著者 Chang Yu,Yongshun Xu,Jin Cao,Ye Zhang,Yinxin Jin,Mengran Zhu
発行日 2024-11-12 16:44:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク