Designing an attack-defense game: how to increase robustness of financial transaction models via a competition

要約

金融分野における悪意のある攻撃のリスクが増大し、その結果として深刻な被害が生じることを考えると、敵対的な戦略と機械学習モデルの堅牢な防御メカニズムを徹底的に理解することが重要です。
より正確ではあるが潜在的に脆弱なニューラル ネットワークが銀行で採用されるようになるにつれて、脅威はさらに深刻になります。
私たちは、逐次金融データを入力として使用するニューラル ネットワーク モデルに対する敵対的な攻撃と防御の現状とダイナミクスを調査することを目的としています。
この目標を達成するために、私たちは現代の金融取引データの問題を現実的かつ詳細に調査できるコンテストを設計しました。
参加者は互いに直接対戦するため、可能な攻撃と防御が現実に近い状況で検討されます。
私たちの主な貢献は、悪意のあるユーザーからモデルを隠すことがどれほど重要であるか、モデルを破るのにどのくらい時間がかかるか、モデルをより堅牢にするためにどのようなテクニックを使用する必要があるか、という質問に答える競争力学の分析です。
モデルを攻撃したり、モデルの堅牢性を高めたりするための追加の方法。
私たちの分析は、使用されたアプローチに関するメタ研究、その威力、数値実験、およびそれに付随するアブレーション研究に続きます。
私たちは、開発された攻撃と防御が、文献に記載されている既存の代替案よりも優れていると同時に、実行の点で実用的であることを示し、機械学習モデルの脆弱性を発見し、さまざまなドメインで脆弱性を軽減するためのツールとしての競争の有効性を証明しています。

要約(オリジナル)

Given the escalating risks of malicious attacks in the finance sector and the consequential severe damage, a thorough understanding of adversarial strategies and robust defense mechanisms for machine learning models is critical. The threat becomes even more severe with the increased adoption in banks more accurate, but potentially fragile neural networks. We aim to investigate the current state and dynamics of adversarial attacks and defenses for neural network models that use sequential financial data as the input. To achieve this goal, we have designed a competition that allows realistic and detailed investigation of problems in modern financial transaction data. The participants compete directly against each other, so possible attacks and defenses are examined in close-to-real-life conditions. Our main contributions are the analysis of the competition dynamics that answers the questions on how important it is to conceal a model from malicious users, how long does it take to break it, and what techniques one should use to make it more robust, and introduction additional way to attack models or increase their robustness. Our analysis continues with a meta-study on the used approaches with their power, numerical experiments, and accompanied ablations studies. We show that the developed attacks and defenses outperform existing alternatives from the literature while being practical in terms of execution, proving the validity of the competition as a tool for uncovering vulnerabilities of machine learning models and mitigating them in various domains.

arxiv情報

著者 Alexey Zaytsev,Alex Natekin,Evgeni Vorsin,Valerii Smirnov,Oleg Sidorshin,Alexander Senin,Alexander Dudin,Dmitry Berestnev
発行日 2023-08-22 12:53:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, q-fin.ST パーマリンク