-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Invisible Image Watermarks Are Provably Removable Using Generative AI
要約 目に見えない透かしは、所有者のみが検出できる隠されたメッセージを埋め込むこ … 続きを読む
ARQ: A Mixed-Precision Quantization Framework for Accurate and Certifiably Robust DNNs
要約 混合精度量子化は、限られたリソースのコンピューティング プラットフォーム上 … 続きを読む
ProTransformer: Robustify Transformers via Plug-and-Play Paradigm
要約 近年、トランスフォーマーベースのアーキテクチャが機械学習のさまざまな分野を … 続きを読む
Breach By A Thousand Leaks: Unsafe Information Leakage in `Safe’ AI Responses
要約 Frontier 言語モデルには誤用やジェイルブレイクに対する脆弱性がある … 続きを読む
Certified Robustness to Data Poisoning in Gradient-Based Training
要約 最新の機械学習パイプラインは大量の公開データを活用しているため、データの品 … 続きを読む
Auditing $f$-Differential Privacy in One Run
要約 実証的監査は、プライバシー保護アルゴリズムの実装における欠陥の一部を発見す … 続きを読む
Embedding-based classifiers can detect prompt injection attacks
要約 大規模言語モデル (LLM) は、その優れた生成機能により、あらゆる種類の … 続きを読む
CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants
要約 LLM ベースのコード アシスタントは、開発者の間でますます人気が高まって … 続きを読む
Watch Out for Your Agents! Investigating Backdoor Threats to LLM-Based Agents
要約 大規模言語モデル (LLM) の急速な発展により、金融、ヘルスケア、ショッ … 続きを読む
$\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning
要約 私たちの取り組みは、特に多くのクライアントが存在するシナリオでは、通信ラウ … 続きを読む