Starlit: Privacy-Preserving Federated Learning to Enhance Financial Fraud Detection

要約

Federated Learning (FL) は、直接的なデータ交換を回避し、ローカル データを使用して多様なクライアント間で協調的なモデル トレーニングを可能にするデータ最小化アプローチです。
ただし、不正な金融取引を特定するための最先端の FL ソリューションには、次のような制限があります。
(1) 正式なセキュリティの定義と証明が不足している、(2) 金融機関による不審な顧客の口座の事前凍結が想定されている (ソリューションの採用が制限されている)、(3) $O(n^2)$ のいずれかが関与し、拡張性が低い
計算コストの高いべき乗剰余演算 ($n$ は金融機関の総数) または非常に非効率な完全準同型暗号化 (4) 当事者がすでに ID 調整フェーズを完了していると想定しているため、実装、パフォーマンス評価、およびセキュリティから除外されます。
分析、および (5) クライアントのドロップアウトに抵抗するのに苦労します。
この研究では、これらの制限を克服する、新しいスケーラブルなプライバシー保護 FL メカニズムである Starlit を導入します。
金融詐欺検出の強化、テロリズムの緩和、デジタルヘルスの強化など、さまざまな用途に利用できます。
当社は Starlit を導入し、世界的な金融取引の主要企業からの合成データを使用して徹底的なパフォーマンス分析を実施しました。
この評価は、Starlit の拡張性、効率性、正確性を示します。

要約(オリジナル)

Federated Learning (FL) is a data-minimization approach enabling collaborative model training across diverse clients with local data, avoiding direct data exchange. However, state-of-the-art FL solutions to identify fraudulent financial transactions exhibit a subset of the following limitations. They (1) lack a formal security definition and proof, (2) assume prior freezing of suspicious customers’ accounts by financial institutions (limiting the solutions’ adoption), (3) scale poorly, involving either $O(n^2)$ computationally expensive modular exponentiation (where $n$ is the total number of financial institutions) or highly inefficient fully homomorphic encryption, (4) assume the parties have already completed the identity alignment phase, hence excluding it from the implementation, performance evaluation, and security analysis, and (5) struggle to resist clients’ dropouts. This work introduces Starlit, a novel scalable privacy-preserving FL mechanism that overcomes these limitations. It has various applications, such as enhancing financial fraud detection, mitigating terrorism, and enhancing digital health. We implemented Starlit and conducted a thorough performance analysis using synthetic data from a key player in global financial transactions. The evaluation indicates Starlit’s scalability, efficiency, and accuracy.

arxiv情報

著者 Aydin Abadi,Bradley Doyle,Francesco Gini,Kieron Guinamard,Sasi Kumar Murakonda,Jack Liddell,Paul Mellor,Steven J. Murdoch,Mohammad Naseri,Hector Page,George Theodorakopoulos,Suzanne Weller
発行日 2024-01-22 08:17:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク