-
最近の投稿
- Simplified POMDP Planning with an Alternative Observation Space and Formal Performance Guarantees
- FREA: Feasibility-Guided Generation of Safety-Critical Scenarios with Reasonable Adversariality
- Enhanced Robot Planning and Perception through Environment Prediction
- FlowRetrieval: Flow-Guided Data Retrieval for Few-Shot Imitation Learning
- Energy-Cautious Designation of Kinematic Parameters for a Sustainable Parallel-Serial Heavy-Duty Manipulator Driven by Electromechanical Linear Actuator
-
最近のコメント
表示できるコメントはありません。 cs.AI (27989) cs.CL (21147) cs.CR (2187) cs.CV (34671) cs.LG (32719) cs.RO (16074) cs.SY (2489) eess.IV (4240) eess.SY (2483) stat.ML (4382)
「cs.CR」カテゴリーアーカイブ
SoK: Pitfalls in Evaluating Black-Box Attacks
要約 画像分類器に対するブラックボックス攻撃を研究する研究が数多くあります。 し … 続きを読む
Defending Against Transfer Attacks From Public Models
要約 敵対的攻撃は、業界において迫りくるものの対処されていない脅威です。 しかし … 続きを読む
Detecting Pretraining Data from Large Language Models
要約 大規模言語モデル (LLM) は広く導入されていますが、そのトレーニングに … 続きを読む
An Observer-Based Key Agreement Scheme for Remotely Controlled Mobile Robots
要約 遠隔制御される移動ロボットは、サイバーフィジカル システム (CPS) の … 続きを読む
Provably Valid and Diverse Mutations of Real-World Media Data for DNN Testing
要約 ディープ ニューラル ネットワーク (DNN) は、多くの場合、高次元のメ … 続きを読む
Kidnapping Deep Learning-based Multirotors using Optimized Flying Adversarial Patches
要約 マルチコプターなどの自律飛行ロボットは、多くの場合、カメラ画像に基づいて予 … 続きを読む
Did the Neurons Read your Book? Document-level Membership Inference for Large Language Models
要約 大規模言語モデル (LLM) が私たちの日常生活に組み込まれようとしており … 続きを読む
Evaluating LLMs for Privilege-Escalation Scenarios
要約 サイバーセキュリティの重要な要素であるペネトレーションテストにより、組織は … 続きを読む
AutoDAN: Automatic and Interpretable Adversarial Attacks on Large Language Models
要約 大規模言語モデル (LLM) の安全性調整は、手動のジェイルブレイク攻撃や … 続きを読む
On the Detection of Image-Scaling Attacks in Machine Learning
要約 画像のスケーリングは、機械学習およびコンピューター ビジョン システムに不 … 続きを読む