-
最近の投稿
- Lightning UQ Box: A Comprehensive Framework for Uncertainty Quantification in Deep Learning
- Fine-Grained Expressive Power of Weisfeiler-Leman: A Homomorphism Counting Perspective
- Hybrid Feedback for Three-dimensional Convex Obstacle Avoidance (Extended version)
- Self-Deployable, Adaptive Soft Robots Based on Contracting-Cord Particle Jamming
- DecTrain: Deciding When to Train a DNN Online
-
最近のコメント
表示できるコメントはありません。 cs.AI (27713) cs.CL (20937) cs.CR (2171) cs.CV (34430) cs.LG (32450) cs.RO (15866) cs.SY (2464) eess.IV (4226) eess.SY (2458) stat.ML (4346)
「cs.CR」カテゴリーアーカイブ
IPA-NeRF: Illusory Poisoning Attack Against Neural Radiance Fields
要約 Neural Radiance Field (NeRF) はコンピューター … 続きを読む
Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks
要約 ディープ ニューラル ネットワークは、バックドア攻撃に対して脆弱です。バッ … 続きを読む
Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks
要約 機械学習モデルの一般化は、敵対的な変更がトレーニング データに適用されるデ … 続きを読む
SLIP: Securing LLMs IP Using Weights Decomposition
要約 大規模言語モデル (LLM) は、最近、学術界と産業界の両方で広く採用され … 続きを読む
Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation
要約 脆弱性の検出は、ソフトウェア システムのセキュリティと信頼性を確保するため … 続きを読む
Hey, That’s My Model! Introducing Chain & Hash, An LLM Fingerprinting Technique
要約 大規模言語モデル (LLM) の盗難や悪用の容易さに対する懸念が高まる中、 … 続きを読む
Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks
要約 ディープ ニューラル ネットワークは、バックドア攻撃に対して脆弱です。バッ … 続きを読む
Synthetic Cancer — Augmenting Worms with LLMs
要約 大規模言語モデル (LLM) がますます洗練されると、悪用の可能性が大幅に … 続きを読む
Instruction Tuning for Secure Code Generation
要約 現代言語モデル (LM) は、特にプログラミングにおいて、日常および専門的 … 続きを読む
RAIFLE: Reconstruction Attacks on Interaction-based Federated Learning with Adversarial Data Manipulation
要約 フェデレーション ラーニングは、ユーザー インタラクションに依存する機械学 … 続きを読む