-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
TuBA: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning
要約 英語中心の大規模言語モデル (LLM) に対するバックドア攻撃の影響は広く … 続きを読む
Vicious Classifiers: Assessing Inference-time Data Reconstruction Risk in Edge Computing
要約 エッジ コンピューティング パラダイムにおけるプライバシー保護推論では、機 … 続きを読む
Obliviate: Neutralizing Task-agnostic Backdoors within the Parameter-efficient Fine-tuning Paradigm
要約 パラメーター効率の良い微調整 (PEFT) は、大規模な言語モデルの主要な … 続きを読む
Multi-Designated Detector Watermarking for Language Models
要約 この論文では、大規模言語モデル (LLM) に対する \emph{複数指定 … 続きを読む
Universal Vulnerabilities in Large Language Models: Backdoor Attacks for In-context Learning
要約 事前トレーニングと微調整の間のギャップを埋めるパラダイムであるインコンテキ … 続きを読む
Backdoor Attacks for LLMs with Weak-To-Strong Knowledge Distillation
要約 大規模言語モデル (LLM) は、その優れた機能により広く適用されているに … 続きを読む
The Use of Large Language Models (LLM) for Cyber Threat Intelligence (CTI) in Cybercrime Forums
要約 大規模言語モデル (LLM) を使用して、サイバー犯罪フォーラムからのサイ … 続きを読む
Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity
要約 言語モデルが ASCII アートを解釈できないことを利用した、新しい敵対的 … 続きを読む
Fine-Tuning Personalization in Federated Learning to Mitigate Adversarial Clients
要約 フェデレーテッド ラーニング (FL) は、データをローカルに保ちながら、 … 続きを読む
Privacy in Large Language Models: Attacks, Defenses and Future Directions
要約 大規模言語モデル (LLM) の進歩により、さまざまな下流の NLP タス … 続きを読む