cs.CR」カテゴリーアーカイブ

Sparsity-Preserving Differentially Private Training of Large Embedding Models

要約 レコメンデーション システムや言語アプリケーションで大規模な埋め込みモデル … 続きを読む

カテゴリー: cs.CR, cs.LG | Sparsity-Preserving Differentially Private Training of Large Embedding Models はコメントを受け付けていません

Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data

要約 ディープ ニューラル ネットワーク (DNN) は、さまざまな分野で大きな … 続きを読む

カテゴリー: cs.CR, cs.LG | Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data はコメントを受け付けていません

Data Valuation and Detections in Federated Learning

要約 Federated Learning (FL) により、生データのプライバ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Data Valuation and Detections in Federated Learning はコメントを受け付けていません

KnowSafe: Combined Knowledge and Data Driven Hazard Mitigation in Artificial Pancreas Systems

要約 サイバーフィジカルシステム (CPS) の安全性とセキュリティを向上させる … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SY, eess.SY | KnowSafe: Combined Knowledge and Data Driven Hazard Mitigation in Artificial Pancreas Systems はコメントを受け付けていません

An Extensive Study on Adversarial Attack against Pre-trained Models of Code

要約 トランスフォーマーベースの事前トレーニング済みコード モデル (PTMC) … 続きを読む

カテゴリー: cs.AI, cs.CR | An Extensive Study on Adversarial Attack against Pre-trained Models of Code はコメントを受け付けていません

Mitigating Backdoors within Deep Neural Networks in Data-limited Configuration

要約 ディープ ニューラル ネットワーク (DNN) の容量が増加するにつれて、 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG, cs.NE | Mitigating Backdoors within Deep Neural Networks in Data-limited Configuration はコメントを受け付けていません

Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild

要約 大規模言語モデル (LLM) を攻撃することで、そこからの異常な出力を意図 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.HC | Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild はコメントを受け付けていません

Does Differential Privacy Prevent Backdoor Attacks in Practice?

要約 Differential Privacy (DP) は、もともとプライバシ … 続きを読む

カテゴリー: cs.CR, cs.LG | Does Differential Privacy Prevent Backdoor Attacks in Practice? はコメントを受け付けていません

Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration

要約 メンバーシップ推論攻撃 (MIA) は、ターゲット データ レコードがモデ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Practical Membership Inference Attacks against Fine-tuned Large Language Models via Self-prompt Calibration はコメントを受け付けていません

Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild

要約 大規模言語モデル (LLM) を攻撃することで、そこからの異常な出力を意図 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.HC | Summon a Demon and Bind it: A Grounded Theory of LLM Red Teaming in the Wild はコメントを受け付けていません