-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
PrisonBreak: Jailbreaking Large Language Models with Fewer Than Twenty-Five Targeted Bit-flips
要約 モデルパラメーターのターゲットを絞ったビットワイズ腐敗を通じてジェイルブレ … 続きを読む
Activation Approximations Can Incur Safety Vulnerabilities Even in Aligned LLMs: Comprehensive Analysis and Defense
要約 大規模な言語モデル(LLM)は、さまざまなドメインにわたって顕著な機能を紹 … 続きを読む
Do Concept Replacement Techniques Really Erase Unacceptable Concepts?
要約 生成モデル、特に拡散ベースのテキストからイメージ(T2I)モデルは、驚くべ … 続きを読む
SoK: Data Reconstruction Attacks Against Machine Learning Models: Definition, Metrics, and Benchmark
要約 アクセスが制限されているターゲットモデルのトレーニングデータセットを回復す … 続きを読む
TokenBreak: Bypassing Text Classification Models Through Token Manipulation
要約 自然言語処理(NLP)モデルは、分類や生成などのテキスト関連のタスクに使用 … 続きを読む
Representation Bending for Large Language Model Safety
要約 大規模な言語モデル(LLM)は強力なツールとして浮上していますが、有害なコ … 続きを読む
Is poisoning a real threat to LLM alignment? Maybe more so than you think
要約 人間のフィードバック(RLHF)による強化学習の最近の進歩は、大規模な言語 … 続きを読む
LLM Unlearning Should Be Form-Independent
要約 大規模な言語モデル(LLM)は、モデル内の望ましくない知識を消去または抑制 … 続きを読む
A Cognac Shot To Forget Bad Memories: Corrective Unlearning for Graph Neural Networks
要約 グラフニューラルネットワーク(GNNS)は、グラフデータ上のさまざまなML … 続きを読む
ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment
要約 この論文では、ビザンチンの攻撃やプライバシーの漏れに耐性のある連合学習のた … 続きを読む