-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Beyond Words: On Large Language Models Actionability in Mission-Critical Risk Analysis
要約 コンテクスト。 リスク分析では、特定のシナリオにおける潜在的なリスクを評価 … 続きを読む
Variational Randomized Smoothing for Sample-Wise Adversarial Robustness
要約 ランダム化スムージングは、ニューラル ネットワーク モデルのパフォーマ … 続きを読む
IPA-NeRF: Illusory Poisoning Attack Against Neural Radiance Fields
要約 Neural Radiance Field (NeRF) はコンピューター … 続きを読む
Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks
要約 ディープ ニューラル ネットワークは、バックドア攻撃に対して脆弱です。バッ … 続きを読む
Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks
要約 機械学習モデルの一般化は、敵対的な変更がトレーニング データに適用されるデ … 続きを読む
SLIP: Securing LLMs IP Using Weights Decomposition
要約 大規模言語モデル (LLM) は、最近、学術界と産業界の両方で広く採用され … 続きを読む
Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation
要約 脆弱性の検出は、ソフトウェア システムのセキュリティと信頼性を確保するため … 続きを読む
Hey, That’s My Model! Introducing Chain & Hash, An LLM Fingerprinting Technique
要約 大規模言語モデル (LLM) の盗難や悪用の容易さに対する懸念が高まる中、 … 続きを読む
Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks
要約 ディープ ニューラル ネットワークは、バックドア攻撃に対して脆弱です。バッ … 続きを読む
Synthetic Cancer — Augmenting Worms with LLMs
要約 大規模言語モデル (LLM) がますます洗練されると、悪用の可能性が大幅に … 続きを読む