-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Harmful Fine-tuning Attacks and Defenses for Large Language Models: A Survey
要約 最近の調査によると、サービスとしての微調整の初期段階のビジネス モデルは、 … 続きを読む
Retraining with Predicted Hard Labels Provably Increases Model Accuracy
要約 \textit{ノイズのあるラベル} でトレーニングされたモデルのパフォー … 続きを読む
Unlearning Backdoor Attacks for LLMs with Weak-to-Strong Knowledge Distillation
要約 パラメーター効率の良い微調整 (PEFT) は、大規模言語モデル (LLM … 続きを読む
BlackDAN: A Black-Box Multi-Objective Approach for Effective and Contextual Jailbreaking of Large Language Models
要約 大規模言語モデル (LLM) はさまざまなタスクにわたって優れた機能を発揮 … 続きを読む
When LLMs Go Online: The Emerging Threat of Web-Enabled LLMs
要約 大規模言語モデル (LLM) の最近の進歩により、LLM は計画を立て、さ … 続きを読む
Privacy-Preserving Decentralized AI with Confidential Computing
要約 このペーパーでは、Web3 ドメイン用に設計された分散型 AI プラットフ … 続きを読む
Private Counterfactual Retrieval
要約 透明性と説明可能性は、リスクの高いアプリケーションでブラックボックス機械学 … 続きを読む
On the Role of Attention Heads in Large Language Model Safety
要約 大規模言語モデル (LLM) は、複数の言語タスクで最先端のパフォーマンス … 続きを読む
Persistent Pre-Training Poisoning of LLMs
要約 大規模な言語モデルは、Web から収集した何兆ものトークンで構成される未管 … 続きを読む
Privacy-Preserving Decentralized AI with Confidential Computing
要約 このペーパーでは、Web3 ドメイン用に設計された分散型 AI プラットフ … 続きを読む