cs.CR」カテゴリーアーカイブ

Inexact Unlearning Needs More Careful Evaluations to Avoid a False Sense of Privacy

要約 モデルの学習コストが高いため、学習解除のための技術を開発することがますます … 続きを読む

カテゴリー: cs.CR, cs.LG | Inexact Unlearning Needs More Careful Evaluations to Avoid a False Sense of Privacy はコメントを受け付けていません

Defending Against Data Reconstruction Attacks in Federated Learning: An Information Theory Approach

要約 Federated Learning(FL)は、直接データを共有する代わり … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | Defending Against Data Reconstruction Attacks in Federated Learning: An Information Theory Approach はコメントを受け付けていません

A Photonic Physically Unclonable Function’s Resilience to Multiple-Valued Machine Learning Attacks

要約 物理的に接続不可能な関数(PUF)は、非線形に関連するチャレンジとレスポン … 続きを読む

カテゴリー: cs.CR, cs.LG | A Photonic Physically Unclonable Function’s Resilience to Multiple-Valued Machine Learning Attacks はコメントを受け付けていません

Gradient Shaping: Enhancing Backdoor Attack Against Reverse Engineering

要約 バックドア化された機械学習(ML)モデルを検出する既存の手法のほとんどは、 … 続きを読む

カテゴリー: cs.CR, cs.LG | Gradient Shaping: Enhancing Backdoor Attack Against Reverse Engineering はコメントを受け付けていません

Prompt Injection attack against LLM-integrated Applications

要約 ラージ・ランゲージ・モデル(LLM)は、言語理解や言語生成に優れていること … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.SE | Prompt Injection attack against LLM-integrated Applications はコメントを受け付けていません

FedTracker: Furnishing Ownership Verification and Traceability for Federated Learning Model

要約 フェデレーテッド・ラーニング(FL)は、分散機械学習のパラダイムであり、複 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | FedTracker: Furnishing Ownership Verification and Traceability for Federated Learning Model はコメントを受け付けていません

Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition

要約 大規模言語モデル(LLM)は、チャットボットやライティングアシスタントなど … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Ignore This Title and HackAPrompt: Exposing Systemic Vulnerabilities of LLMs through a Global Scale Prompt Hacking Competition はコメントを受け付けていません

Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D Object Detection

要約 マルチセンサーフュージョン(MSF)は、自律走行車(AV)の知覚、特にカメ … 続きを読む

カテゴリー: cs.CR, cs.CV | Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D Object Detection はコメントを受け付けていません

Training generative models from privatized data

要約 局所差分プライバシーは、プライバシーを保護したデータ収集のための強力な手法 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Training generative models from privatized data はコメントを受け付けていません

Safeguarding Data in Multimodal AI: A Differentially Private Approach to CLIP Training

要約 マルチモーダルAIの成功の急増は、視覚と言語のタスクにおけるデータプライバ … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT, stat.ML | Safeguarding Data in Multimodal AI: A Differentially Private Approach to CLIP Training はコメントを受け付けていません