Inducing Personality in LLM-Based Honeypot Agents: Measuring the Effect on Human-Like Agenda Generation

要約

このペーパーでは、言語エージェントを活用して説得力のある人間のシミュレーションをエミュレートするサイバー欺ceptionのアーキテクチャであるサンドマンを紹介します。
私たちの「欺ceptiveエージェント」は、攻撃行動の観測期間を延長することにより、攻撃者との忠実度の高い関与のために設計された高度なサイバーデコイとして機能します。
実験、測定、および分析を通じて、性格の5要素モデルに基づいた迅速なスキーマが、大手言語モデルで異なる「人格」を体系的に誘導する方法を示します。
私たちの結果は、多様で現実的な行動を生み出し、最終的にサイバー欺ception戦略を改善するためのペルソナ主導の言語エージェントの実現可能性を強調しています。

要約(オリジナル)

This paper presents SANDMAN, an architecture for cyber deception that leverages Language Agents to emulate convincing human simulacra. Our ‘Deceptive Agents’ serve as advanced cyber decoys, designed for high-fidelity engagement with attackers by extending the observation period of attack behaviours. Through experimentation, measurement, and analysis, we demonstrate how a prompt schema based on the five-factor model of personality systematically induces distinct ‘personalities’ in Large Language Models. Our results highlight the feasibility of persona-driven Language Agents for generating diverse, realistic behaviours, ultimately improving cyber deception strategies.

arxiv情報

著者 Lewis Newsham,Ryan Hyland,Daniel Prince
発行日 2025-03-25 15:16:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA パーマリンク