-
最近の投稿
- Identifying and Addressing Delusions for Target-Directed Decision-Making
- Quanda: An Interpretability Toolkit for Training Data Attribution Evaluation and Beyond
- Context-Aware Command Understanding for Tabletop Scenarios
- Reliable Probabilistic Human Trajectory Prediction for Autonomous Applications
- Towards Realistic UAV Vision-Language Navigation: Platform, Benchmark, and Methodology
-
最近のコメント
表示できるコメントはありません。 cs.AI (27853) cs.CL (21045) cs.CR (2180) cs.CV (34557) cs.LG (32593) cs.RO (15973) cs.SY (2479) eess.IV (4238) eess.SY (2473) stat.ML (4364)
「cs.CR」カテゴリーアーカイブ
Inexact Unlearning Needs More Careful Evaluations to Avoid a False Sense of Privacy
要約 モデルの学習コストが高いため、学習解除のための技術を開発することがますます … 続きを読む
Defending Against Data Reconstruction Attacks in Federated Learning: An Information Theory Approach
要約 Federated Learning(FL)は、直接データを共有する代わり … 続きを読む
A Photonic Physically Unclonable Function’s Resilience to Multiple-Valued Machine Learning Attacks
要約 物理的に接続不可能な関数(PUF)は、非線形に関連するチャレンジとレスポン … 続きを読む
Gradient Shaping: Enhancing Backdoor Attack Against Reverse Engineering
要約 バックドア化された機械学習(ML)モデルを検出する既存の手法のほとんどは、 … 続きを読む
Prompt Injection attack against LLM-integrated Applications
要約 ラージ・ランゲージ・モデル(LLM)は、言語理解や言語生成に優れていること … 続きを読む
FedTracker: Furnishing Ownership Verification and Traceability for Federated Learning Model
要約 フェデレーテッド・ラーニング(FL)は、分散機械学習のパラダイムであり、複 … 続きを読む
Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition
要約 大規模言語モデル(LLM)は、チャットボットやライティングアシスタントなど … 続きを読む
Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D Object Detection
要約 マルチセンサーフュージョン(MSF)は、自律走行車(AV)の知覚、特にカメ … 続きを読む
Training generative models from privatized data
要約 局所差分プライバシーは、プライバシーを保護したデータ収集のための強力な手法 … 続きを読む