cs.CR」カテゴリーアーカイブ

The Adversarial Implications of Variable-Time Inference

要約 機械学習 (ML) モデルは、予測の整合性やトレーニング データのプライバ … 続きを読む

カテゴリー: cs.CR, cs.CV | The Adversarial Implications of Variable-Time Inference はコメントを受け付けていません

When Measures are Unreliable: Imperceptible Adversarial Perturbations toward Top-$k$ Multi-Label Learning

要約 ディープ ニューラル ネットワークの大成功により、敵対的学習は、マルチクラ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | When Measures are Unreliable: Imperceptible Adversarial Perturbations toward Top-$k$ Multi-Label Learning はコメントを受け付けていません

Baseline Defenses for Adversarial Attacks Against Aligned Language Models

要約 大規模言語モデルが急速に普及するにつれて、そのセキュリティの脆弱性を理解す … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Baseline Defenses for Adversarial Attacks Against Aligned Language Models はコメントを受け付けていません

Advancing Personalized Federated Learning: Group Privacy, Fairness, and Beyond

要約 Federated Learning(FL)は、機械学習モデルを分散協調的 … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG, stat.ML | Advancing Personalized Federated Learning: Group Privacy, Fairness, and Beyond はコメントを受け付けていません

Interactive and Concentrated Differential Privacy for Bandits

要約 バンディットは、インタラクティブな学習スキームや最新のレコメンダーシステム … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT, math.ST, stat.ML, stat.TH | Interactive and Concentrated Differential Privacy for Bandits はコメントを受け付けていません

LLM in the Shell: Generative Honeypots

要約 ハニーポットはサイバーセキュリティにおいて不可欠なツールである。しかし、ハ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | LLM in the Shell: Generative Honeypots はコメントを受け付けていません

Image Hijacking: Adversarial Images can Control Generative Models at Runtime

要約 基礎モデルは悪意あるアクターから安全か?この研究では、視覚言語モデル(VL … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Image Hijacking: Adversarial Images can Control Generative Models at Runtime はコメントを受け付けていません

Why do universal adversarial attacks work on large language models?: Geometry might be the answer

要約 創発的な能力を持つトランスフォーマーベースの大規模言語モデルは、社会でます … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Why do universal adversarial attacks work on large language models?: Geometry might be the answer はコメントを受け付けていません

Baseline Defenses for Adversarial Attacks Against Aligned Language Models

要約 ラージ・ランゲージ・モデルが急速にユビキタスになるにつれて、そのセキュリテ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Baseline Defenses for Adversarial Attacks Against Aligned Language Models はコメントを受け付けていません

Temporal-Distributed Backdoor Attack Against Video Based Action Recognition

要約 ディープニューラルネットワーク(DNN)は、ビデオアクション認識を含む様々 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | Temporal-Distributed Backdoor Attack Against Video Based Action Recognition はコメントを受け付けていません