-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence
要約 ブラックボックス敵対的攻撃は、機械学習モデルを破壊する強力な可能性を示して … 続きを読む
Waterfall: Framework for Robust and Scalable Text Watermarking
要約 特に、大規模言語モデル(LLM)による言い換えや、著作権で保護されたテキス … 続きを読む
An AI Architecture with the Capability to Classify and Explain Hardware Trojans
要約 機械学習(ML)技術に基づくハードウェア型トロイの木馬検知手法は、主に疑わ … 続きを読む
Artwork Protection Against Neural Style Transfer Using Locally Adaptive Adversarial Color Attack
要約 ニューラル・スタイル・トランスファー(NST)は、ある画像のスタイルと別の … 続きを読む
Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation
要約 差分プライバシ分散平均推定(DP-DME)は、プライバシを保護する連合学習 … 続きを読む
Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning
要約 大規模言語モデル(LLM)は、多様な領域にわたる複雑なタスクに取り組むため … 続きを読む
SOS! Soft Prompt Attack Against Open-Source Large Language Models
要約 オープンソースの大規模言語モデル(LLM)は、カスタマイズや微調整が可能で … 続きを読む
Self-Evaluation as a Defense Against Adversarial Attacks on LLMs
要約 LLMがデリケートで人間と接する場面で導入される場合、安全でない、偏った、 … 続きを読む
Protecting Privacy in Classifiers by Token Manipulation
要約 言語モデルをリモートサービスとして使用することは、信頼できないプロバイダー … 続きを読む