A Framework for Adversarial Analysis of Decision Support Systems Prior to Deployment

要約

このペーパーでは、シミュレーションを通じて発見された学習行動パターンと脆弱性に関する洞察を提供することにより、展開前にディープ補強学習(DRL)で訓練された意思決定サポートシステムを分析および保護するために設計された包括的なフレームワークを紹介します。
導入されたフレームワークは、正確にタイミングとターゲットを絞った観察摂動の開発に役立ち、研究者が戦略的意思決定コンテキスト内で敵対的な攻撃の結果を評価できるようにします。
フレームワークを検証し、エージェントの動作を視覚化し、カスタム構築された戦略的ゲームであるサイバーストライクのコンテキスト内で敵対的な結果を評価します。
提案されたフレームワークを利用して、さまざまな観察指標とタイムステップに対する攻撃の影響を体系的に発見し、ランク付けする方法を導入し、エージェントアーキテクチャとDRLトレーニングアルゴリズムを介した敵対的攻撃の移動性を評価するための実験を実施します。
この調査結果は、ハイステークス環境での意思決定政策を保護するための堅牢な敵対的な防御メカニズムの重要な必要性を強調しています。

要約(オリジナル)

This paper introduces a comprehensive framework designed to analyze and secure decision-support systems trained with Deep Reinforcement Learning (DRL), prior to deployment, by providing insights into learned behavior patterns and vulnerabilities discovered through simulation. The introduced framework aids in the development of precisely timed and targeted observation perturbations, enabling researchers to assess adversarial attack outcomes within a strategic decision-making context. We validate our framework, visualize agent behavior, and evaluate adversarial outcomes within the context of a custom-built strategic game, CyberStrike. Utilizing the proposed framework, we introduce a method for systematically discovering and ranking the impact of attacks on various observation indices and time-steps, and we conduct experiments to evaluate the transferability of adversarial attacks across agent architectures and DRL training algorithms. The findings underscore the critical need for robust adversarial defense mechanisms to protect decision-making policies in high-stakes environments.

arxiv情報

著者 Brett Bissey,Kyle Gatesman,Walker Dimon,Mohammad Alam,Luis Robaina,Joseph Weissman
発行日 2025-05-27 16:41:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GT, cs.LG パーマリンク