-
最近の投稿
- Simplified POMDP Planning with an Alternative Observation Space and Formal Performance Guarantees
- FREA: Feasibility-Guided Generation of Safety-Critical Scenarios with Reasonable Adversariality
- Enhanced Robot Planning and Perception through Environment Prediction
- FlowRetrieval: Flow-Guided Data Retrieval for Few-Shot Imitation Learning
- Energy-Cautious Designation of Kinematic Parameters for a Sustainable Parallel-Serial Heavy-Duty Manipulator Driven by Electromechanical Linear Actuator
-
最近のコメント
表示できるコメントはありません。 cs.AI (27989) cs.CL (21147) cs.CR (2187) cs.CV (34671) cs.LG (32719) cs.RO (16074) cs.SY (2489) eess.IV (4240) eess.SY (2483) stat.ML (4382)
「cs.CR」カテゴリーアーカイブ
Sparsity-Preserving Differentially Private Training of Large Embedding Models
要約 レコメンデーション システムや言語アプリケーションで大規模な埋め込みモデル … 続きを読む
Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data
要約 ディープ ニューラル ネットワーク (DNN) は、さまざまな分野で大きな … 続きを読む
Data Valuation and Detections in Federated Learning
要約 Federated Learning (FL) により、生データのプライバ … 続きを読む
KnowSafe: Combined Knowledge and Data Driven Hazard Mitigation in Artificial Pancreas Systems
要約 サイバーフィジカルシステム (CPS) の安全性とセキュリティを向上させる … 続きを読む
An Extensive Study on Adversarial Attack against Pre-trained Models of Code
要約 トランスフォーマーベースの事前トレーニング済みコード モデル (PTMC) … 続きを読む
Mitigating Backdoors within Deep Neural Networks in Data-limited Configuration
要約 ディープ ニューラル ネットワーク (DNN) の容量が増加するにつれて、 … 続きを読む
Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild
要約 大規模言語モデル (LLM) を攻撃することで、そこからの異常な出力を意図 … 続きを読む
Does Differential Privacy Prevent Backdoor Attacks in Practice?
要約 Differential Privacy (DP) は、もともとプライバシ … 続きを読む
Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration
要約 メンバーシップ推論攻撃 (MIA) は、ターゲット データ レコードがモデ … 続きを読む
Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild
要約 大規模言語モデル (LLM) を攻撃することで、そこからの異常な出力を意図 … 続きを読む