要約
生成AI(Genai)エージェントがエンタープライズの設定でより一般的になるにつれて、従来のシステムによってもたらされるものとは大きく異なるセキュリティの課題を導入します。
これらのエージェントはLLMだけではありません。
彼らは、多くの場合、人間の監視を最小限に抑えて、覚えていて、行動し、行動します。
このペーパーでは、Genaiエージェント専用に調整された包括的な脅威モデルを紹介し、自律性、永続的なメモリアクセス、複雑な推論、およびツール統合がどのように新しいリスクを生み出すかに焦点を当てています。
この研究作業は、9つの主要な脅威を特定し、認知アーキテクチャの脆弱性、時間的持続性の脅威、運用上の実行の脆弱性、信頼境界違反、ガバナンス回避の5つの重要なドメインにまたがるそれらを整理します。
これらの脅威は、既存のフレームワークや標準的なアプローチで検出するのが困難な、遅延の搾取性、クロスシステムの伝播、クロスシステムの横方向の動き、微妙な目標の不整列などの実際的な課題をもたらす理論的だけではありません。
これに対処するために、研究作業は2つの補完的なフレームワークを提示します。ATFAA-エージェント固有のリスクを編成する自律AIエージェントの高度な脅威フレームワークと、エネルギーエクスポージャーを減らすために設計された実用的な緩和戦略を提案するフレームワーク。
この作業は、LLMおよびAIセキュリティでの既存の作業に基づいていますが、焦点はエージェントを異なるものにし、なぜそれらの違いが重要なのかに焦点を当てています。
最終的に、この研究は、Genaiのエージェントがセキュリティのために新しいレンズを必要とすると主張しています。
独自のアーキテクチャと行動を説明するために脅威モデルと防御を適応できない場合、強力な新しいツールを深刻な企業責任に変える危険があります。
要約(オリジナル)
As generative AI (GenAI) agents become more common in enterprise settings, they introduce security challenges that differ significantly from those posed by traditional systems. These agents are not just LLMs; they reason, remember, and act, often with minimal human oversight. This paper introduces a comprehensive threat model tailored specifically for GenAI agents, focusing on how their autonomy, persistent memory access, complex reasoning, and tool integration create novel risks. This research work identifies 9 primary threats and organizes them across five key domains: cognitive architecture vulnerabilities, temporal persistence threats, operational execution vulnerabilities, trust boundary violations, and governance circumvention. These threats are not just theoretical they bring practical challenges such as delayed exploitability, cross-system propagation, cross system lateral movement, and subtle goal misalignments that are hard to detect with existing frameworks and standard approaches. To help address this, the research work present two complementary frameworks: ATFAA – Advanced Threat Framework for Autonomous AI Agents, which organizes agent-specific risks, and SHIELD, a framework proposing practical mitigation strategies designed to reduce enterprise exposure. While this work builds on existing work in LLM and AI security, the focus is squarely on what makes agents different and why those differences matter. Ultimately, this research argues that GenAI agents require a new lens for security. If we fail to adapt our threat models and defenses to account for their unique architecture and behavior, we risk turning a powerful new tool into a serious enterprise liability.
arxiv情報
著者 | Vineeth Sai Narajala,Om Narayan |
発行日 | 2025-04-28 16:29:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google