Generative AI for Validating Physics Laws

要約

生成的人工知能(AI)を提示して、恒星の温度と光度をリンクするステファンボルツマンの法則に焦点を当て、物理学の基本法則を経験的に検証します。
私たちのアプローチは、個々の星の仮想温度レジームの下で反事実的光度をシミュレートし、深い学習アーキテクチャの温度光度関係を繰り返し洗練します。
Gaia DR3データを使用して、平均して、光度に対する温度の影響は、恒星の半径とともに増加し、絶対的な大きさとともに減少し、理論的予測と一致することがわかります。
物理法則を因果関係の問題としてフレーミングすることにより、私たちの方法は、理論的理解を改善し、証拠に基づいた政策と実践を知らせるための斬新なデータ駆動型のアプローチを提供します。

要約(オリジナル)

We present generative artificial intelligence (AI) to empirically validate fundamental laws of physics, focusing on the Stefan-Boltzmann law linking stellar temperature and luminosity. Our approach simulates counterfactual luminosities under hypothetical temperature regimes for each individual star and iteratively refines the temperature-luminosity relationship in a deep learning architecture. We use Gaia DR3 data and find that, on average, temperature’s effect on luminosity increases with stellar radius and decreases with absolute magnitude, consistent with theoretical predictions. By framing physics laws as causal problems, our method offers a novel, data-driven approach to refine theoretical understanding and inform evidence-based policy and practice.

arxiv情報

著者 Maria Nareklishvili,Nicholas Polson,Vadim Sokolov
発行日 2025-03-25 14:31:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: astro-ph.GA, astro-ph.SR, cs.AI | Generative AI for Validating Physics Laws はコメントを受け付けていません

Bootstrap Your Own Views: Masked Ego-Exo Modeling for Fine-grained View-invariant Video Representations

要約

エゴセントリック(ファーストパーソン、エゴ)およびエクソセントリック(サードパーソン、エクソー)のビデオから学習するビュー不変の表現は、複数の視点にわたってビデオ理解システムを一般化するための有望なアプローチです。
ただし、この領域は、自我とEXOビューの間の視点、モーションパターン、およびコンテキストの実質的な違いのために、露出度が低いです。
この論文では、因果的な時間的ダイナミクスとクロスビューアラインメントの両方を促進する新しいマスクされた自我エキソモデリングを提案します。これは、bootStrap your bookStrap(BYOV)と呼ばれ、微調整されたビュー不変ビデオ表現を、対応していないエゴエゾビデオから学習します。
堅牢なクロスビューの理解の基礎として、人間の行動の構成性をキャプチャすることの重要性を強調します。
具体的には、セルフビューマスキングとクロスビューマスキング予測は、ビュー不変で強力な表現を同時に学習するように設計されています。
実験結果は、BYOVが4つのダウンストリームエゴエキソビデオタスクのすべてのメトリックにわたって顕著な利益を持つ既存のアプローチを大幅に上回っていることを示しています。
このコードは、https://github.com/park-jungin/byovで入手できます。

要約(オリジナル)

View-invariant representation learning from egocentric (first-person, ego) and exocentric (third-person, exo) videos is a promising approach toward generalizing video understanding systems across multiple viewpoints. However, this area has been underexplored due to the substantial differences in perspective, motion patterns, and context between ego and exo views. In this paper, we propose a novel masked ego-exo modeling that promotes both causal temporal dynamics and cross-view alignment, called Bootstrap Your Own Views (BYOV), for fine-grained view-invariant video representation learning from unpaired ego-exo videos. We highlight the importance of capturing the compositional nature of human actions as a basis for robust cross-view understanding. Specifically, self-view masking and cross-view masking predictions are designed to learn view-invariant and powerful representations concurrently. Experimental results demonstrate that our BYOV significantly surpasses existing approaches with notable gains across all metrics in four downstream ego-exo video tasks. The code is available at https://github.com/park-jungin/byov.

arxiv情報

著者 Jungin Park,Jiyoung Lee,Kwanghoon Sohn
発行日 2025-03-25 14:33:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | Bootstrap Your Own Views: Masked Ego-Exo Modeling for Fine-grained View-invariant Video Representations はコメントを受け付けていません

Writing as a testbed for open ended agents

要約

膨大なソリューションスペースのため、LLMSにとってオープンエンドのタスクは、特に成功に明確で客観的な定義がない場合、広大な探索と適応可能な戦略の両方を要求しています。
その膨大なソリューションスペースと主観的評価基準を備えた執筆は、そのような問題を研究するための説得力のあるテストベッドを提供します。
このホワイトペーパーでは、LLMSが共同の共同作家として機能する可能性を調査し、テキストの改善を自律的に提案および実装できることを調査します。
3つの著名なLLMS -Gemini 1.5 Pro、Claude 3.5 Sonnet、およびGPT -4oを分析し、アクションの多様性、人間の整合性、および反復改善機能に全体的なパフォーマンスにどのように影響するかに焦点を当てています。
この作業は、自動運転執筆エージェントをベンチマークするためのフレームワークを確立し、より広く、多様なオープンエンドドメインで優れている可能性のあるシステムを構築するための基本的な課題と潜在的なソリューションを強調しています。

要約(オリジナル)

Open-ended tasks are particularly challenging for LLMs due to the vast solution space, demanding both expansive exploration and adaptable strategies, especially when success lacks a clear, objective definition. Writing, with its vast solution space and subjective evaluation criteria, provides a compelling testbed for studying such problems. In this paper, we investigate the potential of LLMs to act as collaborative co-writers, capable of suggesting and implementing text improvements autonomously. We analyse three prominent LLMs – Gemini 1.5 Pro, Claude 3.5 Sonnet, and GPT-4o – focusing on how their action diversity, human alignment, and iterative improvement capabilities impact overall performance. This work establishes a framework for benchmarking autonomous writing agents and, more broadly, highlights fundamental challenges and potential solutions for building systems capable of excelling in diverse open-ended domains.

arxiv情報

著者 Sian Gooding,Lucia Lopez-Rivilla,Edward Grefenstette
発行日 2025-03-25 14:38:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC | Writing as a testbed for open ended agents はコメントを受け付けていません

Decoupled Dynamics Framework with Neural Fields for 3D Spatio-temporal Prediction of Vehicle Collisions

要約

この研究は、グローバルな剛体運動と局所構造変形を独立してモデル化することにより、3D車両衝突ダイナミクスを予測する神経枠組みを提案します。
絶対変位を直接予測するアプローチとは異なり、この方法は、車両の全体的な翻訳と回転を構造変形から明示的に分離します。
2つの専門的なネットワークは、フレームワークのコアを形成します。硬化運動のための四項ベースの剛性ネットと、局所変形のための座標ベースの変形ネットです。
基本的に異なる物理現象を独立して処理することにより、提案されたアーキテクチャは、各コンポーネントの個別の監督を必要とせずに正確な予測を実現します。
このモデルは、利用可能なシミュレーションデータの10%のみでトレーニングされており、単一の多層パーセプトロン(MLP)やディープオペレーターネットワーク(DEEPONET)を含むベースラインモデルを大幅に上回り、予測エラーは最大83%減少します。
広範な検証は、トレーニング範囲外の衝突条件に対する強力な一般化を実証し、極端な速度と大きな衝撃角を含む深刻な影響の下でさえ、応答を正確に予測します。
さらに、このフレームワークは、計算努力を増やすことなく、低解像度の入力から高解像度の変形の詳細を成功裏に再構築します。
その結果、提案されたアプローチは、複雑な衝突シナリオ全体で車両の安全性を迅速かつ信頼できる評価のための効果的で計算効率的な方法を提供し、予測の忠実度を維持しながら、必要なシミュレーションデータと時間を大幅に削減します。

要約(オリジナル)

This study proposes a neural framework that predicts 3D vehicle collision dynamics by independently modeling global rigid-body motion and local structural deformation. Unlike approaches directly predicting absolute displacement, this method explicitly separates the vehicle’s overall translation and rotation from its structural deformation. Two specialized networks form the core of the framework: a quaternion-based Rigid Net for rigid motion and a coordinate-based Deformation Net for local deformation. By independently handling fundamentally distinct physical phenomena, the proposed architecture achieves accurate predictions without requiring separate supervision for each component. The model, trained on only 10% of available simulation data, significantly outperforms baseline models, including single multi-layer perceptron (MLP) and deep operator networks (DeepONet), with prediction errors reduced by up to 83%. Extensive validation demonstrates strong generalization to collision conditions outside the training range, accurately predicting responses even under severe impacts involving extreme velocities and large impact angles. Furthermore, the framework successfully reconstructs high-resolution deformation details from low-resolution inputs without increased computational effort. Consequently, the proposed approach provides an effective, computationally efficient method for rapid and reliable assessment of vehicle safety across complex collision scenarios, substantially reducing the required simulation data and time while preserving prediction fidelity.

arxiv情報

著者 Sanghyuk Kim,Minsik Seo,Namwoo Kang
発行日 2025-03-25 14:38:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE | Decoupled Dynamics Framework with Neural Fields for 3D Spatio-temporal Prediction of Vehicle Collisions はコメントを受け付けていません

Invertible Koopman neural operator for data-driven modeling of partial differential equations

要約

Koopmanオペレーター理論は、非線形動的システムのグローバルな線形化表現を提供するため、データ駆動型モデリングの一般的な候補です。
ただし、既存のKoopmanオペレーターベースの方法は、行儀の良い観察可能な関数とその逆数を構築する際に欠点に悩まされており、部分的な微分方程式(PDE)を扱うときに十分ではありません。
これらの問題に対処するために、このペーパーでは、Koopmanオペレーターの理論とニューラル演算子に触発された新しいデータ駆動型モデリングアプローチである、反転可能なKoopman Neural Operator(IKNO)を提案します。
IKNOは、反転可能なニューラルネットワークを活用して、同じ学習可能なパラメーターの下で観測可能な関数とその逆数をパラメーター化し、再構成関係を明示的に保証し、再構成損失への依存性を排除します。
Koopmanオペレーター理論に触発された構造化された線形マトリックスは、観察可能な空間ではなく、周波数空間での観測可能性の低周波モードの進化を学習するためにパラメーター化されているため、IKNOを維持することは、他の神経演算子と同様に解像度に不変です。
さらに、補間や寸法拡張などの前処理により、IKNOは、非標準ドメインで定義されたオペレーター学習タスクに拡張できます。
豊富な数値的および実世界の例に基づいて上記の主張を完全にサポートし、他の神経演算子よりもIKNOと優位性の有効性を実証しています。

要約(オリジナル)

Koopman operator theory is a popular candidate for data-driven modeling because it provides a global linearization representation for nonlinear dynamical systems. However, existing Koopman operator-based methods suffer from shortcomings in constructing the well-behaved observable function and its inverse and are inefficient enough when dealing with partial differential equations (PDEs). To address these issues, this paper proposes the Invertible Koopman Neural Operator (IKNO), a novel data-driven modeling approach inspired by the Koopman operator theory and neural operator. IKNO leverages an Invertible Neural Network to parameterize observable function and its inverse simultaneously under the same learnable parameters, explicitly guaranteeing the reconstruction relation, thus eliminating the dependency on the reconstruction loss, which is an essential improvement over the original Koopman Neural Operator (KNO). The structured linear matrix inspired by the Koopman operator theory is parameterized to learn the evolution of observables’ low-frequency modes in the frequency space rather than directly in the observable space, sustaining IKNO is resolution-invariant like other neural operators. Moreover, with preprocessing such as interpolation and dimension expansion, IKNO can be extended to operator learning tasks defined on non-Cartesian domains. We fully support the above claims based on rich numerical and real-world examples and demonstrate the effectiveness of IKNO and superiority over other neural operators.

arxiv情報

著者 Yuhong Jin,Andong Cong,Lei Hou,Qiang Gao,Xiangdong Ge,Chonglong Zhu,Yongzhi Feng,Jun Li
発行日 2025-03-25 14:43:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Invertible Koopman neural operator for data-driven modeling of partial differential equations はコメントを受け付けていません

On What Depends the Robustness of Multi-source Models to Missing Data in Earth Observation?

要約

近年、堅牢なマルチソースモデルの開発が地球観察(EO)分野で登場しています。
これらは、多様なソースからのデータを活用して、データが欠落しているときに予測精度を向上させるモデルです。
これらの進歩にもかかわらず、このようなモデルのさまざまな有効性に影響を与える要因は、よく理解されていません。
この研究では、単一のデータソースが欠落しているか、単一のソースのみが利用可能なシナリオを予測する際に、6つの最先端のマルチソースモデルの予測パフォーマンスを評価します。
私たちの分析により、これらのモデルの有効性は、タスクの性質、データソース間の相補性、およびモデル設計に複雑に結びついていることが明らかになりました。
驚くべきことに、特定のデータソースの削除が予測パフォーマンスの改善につながる場合を観察し、利用可能なすべてのデータを組み込むことが常に有益であるという仮定に挑戦します。
これらの調査結果は、モデルの複雑さと収集されたすべてのデータソースの必要性に関する批判的な反省を促し、EOアプリケーションでより合理化されたアプローチの方法を形作る可能性があります。

要約(オリジナル)

In recent years, the development of robust multi-source models has emerged in the Earth Observation (EO) field. These are models that leverage data from diverse sources to improve predictive accuracy when there is missing data. Despite these advancements, the factors influencing the varying effectiveness of such models remain poorly understood. In this study, we evaluate the predictive performance of six state-of-the-art multi-source models in predicting scenarios where either a single data source is missing or only a single source is available. Our analysis reveals that the efficacy of these models is intricately tied to the nature of the task, the complementarity among data sources, and the model design. Surprisingly, we observe instances where the removal of certain data sources leads to improved predictive performance, challenging the assumption that incorporating all available data is always beneficial. These findings prompt critical reflections on model complexity and the necessity of all collected data sources, potentially shaping the way for more streamlined approaches in EO applications.

arxiv情報

著者 Francisco Mena,Diego Arenas,Miro Miranda,Andreas Dengel
発行日 2025-03-25 14:45:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG | On What Depends the Robustness of Multi-source Models to Missing Data in Earth Observation? はコメントを受け付けていません

CamSAM2: Segment Anything Accurately in Camouflaged Videos

要約

ビデオカモフラージュオブジェクトセグメンテーション(VCO)は、環境にシームレスに融合するカモフラージュオブジェクトのセグメント化を目的としており、さまざまな現実世界のアプリケーションを備えた基本的なビジョンタスクです。
SAM2のリリースにより、ビデオセグメンテーションは大きな進歩を目撃しました。
ただし、特にポイントやボックスなどの単純なプロンプトが与えられた場合、カモフラージュビデオをセグメント化するSAM2の機能は最適ではありません。
問題に対処するために、カモフラージュSAM2(CAMSAM2)を提案します。これにより、SAM2のパラメーターを変更せずにカモフラージュシーンを処理するSAM2の能力が向上します。
具体的には、Decamouflagedトークンを導入して、VCOの機能調整の柔軟性を提供します。
現在のフレームおよび以前のフレームから細粒および高解像度の特徴を最大限に活用するために、それぞれ暗黙のオブジェクト認識融合(IOF)と明示的なオブジェクト認識融合(EOF)モジュールを提案します。
オブジェクトのプロトタイプ生成(OPG)は、以前のフレームの高品質の機能を使用して、有益な詳細を使用して、オブジェクトのプロトタイプを抽象化および記憶するために紹介されます。
私たちのアプローチの有効性を検証するために、広範な実験が行われます。
CAMSAM2はSAM2に無視できる学習可能なパラメーターのみを追加しますが、3つのVCOSデータセットでSAM2を大幅に上回ります。
このコードは、\ href {https://github.com/zhoustan/camsam2} {github.com/zhoustan/camsam2}で利用できます。

要約(オリジナル)

Video camouflaged object segmentation (VCOS), aiming at segmenting camouflaged objects that seamlessly blend into their environment, is a fundamental vision task with various real-world applications. With the release of SAM2, video segmentation has witnessed significant progress. However, SAM2’s capability of segmenting camouflaged videos is suboptimal, especially when given simple prompts such as point and box. To address the problem, we propose Camouflaged SAM2 (CamSAM2), which enhances SAM2’s ability to handle camouflaged scenes without modifying SAM2’s parameters. Specifically, we introduce a decamouflaged token to provide the flexibility of feature adjustment for VCOS. To make full use of fine-grained and high-resolution features from the current frame and previous frames, we propose implicit object-aware fusion (IOF) and explicit object-aware fusion (EOF) modules, respectively. Object prototype generation (OPG) is introduced to abstract and memorize object prototypes with informative details using high-quality features from previous frames. Extensive experiments are conducted to validate the effectiveness of our approach. While CamSAM2 only adds negligible learnable parameters to SAM2, it substantially outperforms SAM2 on three VCOS datasets, especially achieving 12.2 mDice gains with click prompt on MoCA-Mask and 19.6 mDice gains with mask prompt on SUN-SEG-Hard, with Hiera-T as the backbone. The code will be available at \href{https://github.com/zhoustan/CamSAM2}{github.com/zhoustan/CamSAM2}.

arxiv情報

著者 Yuli Zhou,Guolei Sun,Yawei Li,Yuqian Fu,Luca Benini,Ender Konukoglu
発行日 2025-03-25 14:58:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | CamSAM2: Segment Anything Accurately in Camouflaged Videos はコメントを受け付けていません

MIRROR: A Novel Approach for the Automated Evaluation of Open-Ended Question Generation

要約

自動質問生成は、エンゲージメント、教育的価値、批判的思考を刺激する能力などの要因を考慮することにより、質問の質を評価することを伴う重要なタスクです。
これらの側面には、自動化されたシステムが現在欠けている人間のような理解と判断が必要です。
ただし、人間の評価は、生成された質問の大規模なサンプルでは費用がかかり、非現実的です。
したがって、大規模な言語モデル(LLM)を活用して自動化された質問生成システムによって生成された質問の評価プロセスを自動化する新しいシステム、ミラー(最適化された評価のマルチLITのレビューと応答)を提案します。
GPT-4、Gemini、Llama2-70bなど、いくつかの最先端のLLMを実験しました。
人間の評価メトリックのスコア、すなわち、関連性、適切性、斬新、複雑さ、文法性は、ミラーと呼ばれるフィードバックベースのアプローチを使用すると改善され、人間のベースラインスコアに近づく傾向があることが観察されました。
さらに、Pearsonのフィードバックベースのアプローチを使用すると、GPT-4と人間の専門家の間のピアソンの相関係数が改善されたことが観察されました。
エラー分析は、提案されたアプローチであるミラーが、関連性と適切性を改善するのに大幅に役立つことを示しています。

要約(オリジナル)

Automatic question generation is a critical task that involves evaluating question quality by considering factors such as engagement, pedagogical value, and the ability to stimulate critical thinking. These aspects require human-like understanding and judgment, which automated systems currently lack. However, human evaluations are costly and impractical for large-scale samples of generated questions. Therefore, we propose a novel system, MIRROR (Multi-LLM Iterative Review and Response for Optimized Rating), which leverages large language models (LLMs) to automate the evaluation process for questions generated by automated question generation systems. We experimented with several state-of-the-art LLMs, such as GPT-4, Gemini, and Llama2-70b. We observed that the scores of human evaluation metrics, namely relevance, appropriateness, novelty, complexity, and grammaticality, improved when using the feedback-based approach called MIRROR, tending to be closer to the human baseline scores. Furthermore, we observed that Pearson’s correlation coefficient between GPT-4 and human experts improved when using our proposed feedback-based approach, MIRROR, compared to direct prompting for evaluation. Error analysis shows that our proposed approach, MIRROR, significantly helps to improve relevance and appropriateness.

arxiv情報

著者 Aniket Deroy,Subhankar Maity,Sudeshna Sarkar
発行日 2025-03-25 15:02:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | MIRROR: A Novel Approach for the Automated Evaluation of Open-Ended Question Generation はコメントを受け付けていません

When Large Vision-Language Model Meets Large Remote Sensing Imagery: Coarse-to-Fine Text-Guided Token Pruning

要約

大きなリモートセンシング画像(RSI)の効率的な視覚言語の理解は意味がありますが挑戦的です。
現在の大規模な視覚言語モデル(LVLMS)は通常、限られた事前定義されたグリッドを使用して画像を処理し、ギガピクセルRSIを処理する際に情報の損失をもたらします。
逆に、無制限のグリッドを使用すると、計算コストが大幅に増加します。
計算の複雑さを減らしながら画像の詳細を維持するために、動的画像ピラミッド(DIP)統合を使用したテキスト誘導トークン剪定法を提案します。
私たちの方法は、(i)テキスト認識領域のローカリゼーション機能を活用して重要なビジョントークンを識別する地域フォーカスモジュール(RFM)、および(ii)RFM出力によってガイドされ、大きな画像全体を直接処理することを回避するDIPに基づく粗から洗練された画像タイルの選択と視力トークン剪定戦略を紹介します。
さらに、大規模なRSIでのLVLMSの知覚能力を評価するための既存のベンチマークは、質問の多様性と制約された画像サイズに悩まされています。
LRS-VQAという名前の新しいベンチマークを構築します。これには、最大27,328ピクセルの画像長がある8つのカテゴリに7,333 QAペアが含まれています。
この方法は、同じデータを使用して4つのデータセットで既存の高解像度戦略を上回っています。
さらに、既存のトークン削減方法と比較して、私たちのアプローチは、高解像度の設定でのより高い効率性を示しています。
データセットとコードはhttps://github.com/visionxlab/lrs-vqaにあります。

要約(オリジナル)

Efficient vision-language understanding of large Remote Sensing Images (RSIs) is meaningful but challenging. Current Large Vision-Language Models (LVLMs) typically employ limited pre-defined grids to process images, leading to information loss when handling gigapixel RSIs. Conversely, using unlimited grids significantly increases computational costs. To preserve image details while reducing computational complexity, we propose a text-guided token pruning method with Dynamic Image Pyramid (DIP) integration. Our method introduces: (i) a Region Focus Module (RFM) that leverages text-aware region localization capability to identify critical vision tokens, and (ii) a coarse-to-fine image tile selection and vision token pruning strategy based on DIP, which is guided by RFM outputs and avoids directly processing the entire large imagery. Additionally, existing benchmarks for evaluating LVLMs’ perception ability on large RSI suffer from limited question diversity and constrained image sizes. We construct a new benchmark named LRS-VQA, which contains 7,333 QA pairs across 8 categories, with image length up to 27,328 pixels. Our method outperforms existing high-resolution strategies on four datasets using the same data. Moreover, compared to existing token reduction methods, our approach demonstrates higher efficiency under high-resolution settings. Dataset and code are in https://github.com/VisionXLab/LRS-VQA.

arxiv情報

著者 Junwei Luo,Yingying Zhang,Xue Yang,Kang Wu,Qi Zhu,Lei Liang,Jingdong Chen,Yansheng Li
発行日 2025-03-25 15:05:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | When Large Vision-Language Model Meets Large Remote Sensing Imagery: Coarse-to-Fine Text-Guided Token Pruning はコメントを受け付けていません

Inducing Personality in LLM-Based Honeypot Agents: Measuring the Effect on Human-Like Agenda Generation

要約

このペーパーでは、言語エージェントを活用して説得力のある人間のシミュレーションをエミュレートするサイバー欺ceptionのアーキテクチャであるサンドマンを紹介します。
私たちの「欺ceptiveエージェント」は、攻撃行動の観測期間を延長することにより、攻撃者との忠実度の高い関与のために設計された高度なサイバーデコイとして機能します。
実験、測定、および分析を通じて、性格の5要素モデルに基づいた迅速なスキーマが、大手言語モデルで異なる「人格」を体系的に誘導する方法を示します。
私たちの結果は、多様で現実的な行動を生み出し、最終的にサイバー欺ception戦略を改善するためのペルソナ主導の言語エージェントの実現可能性を強調しています。

要約(オリジナル)

This paper presents SANDMAN, an architecture for cyber deception that leverages Language Agents to emulate convincing human simulacra. Our ‘Deceptive Agents’ serve as advanced cyber decoys, designed for high-fidelity engagement with attackers by extending the observation period of attack behaviours. Through experimentation, measurement, and analysis, we demonstrate how a prompt schema based on the five-factor model of personality systematically induces distinct ‘personalities’ in Large Language Models. Our results highlight the feasibility of persona-driven Language Agents for generating diverse, realistic behaviours, ultimately improving cyber deception strategies.

arxiv情報

著者 Lewis Newsham,Ryan Hyland,Daniel Prince
発行日 2025-03-25 15:16:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA | Inducing Personality in LLM-Based Honeypot Agents: Measuring the Effect on Human-Like Agenda Generation はコメントを受け付けていません