cs.CR」カテゴリーアーカイブ

On the Privacy of Selection Mechanisms with Gaussian Noise

要約 レポート ノイズ最大値としきい値以上は、2 つの古典的な差分プライベート … 続きを読む

カテゴリー: cs.CR, cs.LG | On the Privacy of Selection Mechanisms with Gaussian Noise はコメントを受け付けていません

Closing the Gap: Achieving Better Accuracy-Robustness Tradeoffs against Query-Based Attacks

要約 クエリベースの攻撃に対する既存の防御には有望ではありますが、共通の制限があ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Closing the Gap: Achieving Better Accuracy-Robustness Tradeoffs against Query-Based Attacks はコメントを受け付けていません

TMI! Finetuned Models Leak Private Information from their Pretraining Data

要約 転移学習は、1 つのタスク用にトレーニングされた事前トレーニング済みモデル … 続きを読む

カテゴリー: cs.CR, cs.LG | TMI! Finetuned Models Leak Private Information from their Pretraining Data はコメントを受け付けていません

Have You Poisoned My Data? Defending Neural Networks against Data Poisoning

要約 トレーニング データが前例のないほど利用可能になったことにより、近年の強力 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Have You Poisoned My Data? Defending Neural Networks against Data Poisoning はコメントを受け付けていません

LogPrécis: Unleashing Language Models for Automated Shell Log Analysis

要約 セキュリティ関連のログの収集は、攻撃動作の理解と脆弱性の診断の鍵を保持しま … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.NI | LogPrécis: Unleashing Language Models for Automated Shell Log Analysis はコメントを受け付けていません

Vulnerability analysis of captcha using Deep learning

要約 いくつかの Web サイトでは、エンドユーザーが人間であるかロボットである … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Vulnerability analysis of captcha using Deep learning はコメントを受け付けていません

Threats, Attacks, and Defenses in Machine Unlearning: A Survey

要約 最近、機械学習 (MU) は、トレーニングされた機械学習 (ML) モデル … 続きを読む

カテゴリー: cs.AI, cs.CR | Threats, Attacks, and Defenses in Machine Unlearning: A Survey はコメントを受け付けていません

Has Approximate Machine Unlearning been evaluated properly? From Auditing to Side Effects

要約 データのプライバシーとセキュリティを巡る懸念の高まりにより、機械学習モデル … 続きを読む

カテゴリー: cs.CR, cs.LG | Has Approximate Machine Unlearning been evaluated properly? From Auditing to Side Effects はコメントを受け付けていません

Python Fuzzing for Trustworthy Machine Learning Frameworks

要約 信頼できる AI ベースのシステムを構築するには、機械学習フレームワークの … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | Python Fuzzing for Trustworthy Machine Learning Frameworks はコメントを受け付けていません

LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks

要約 ソフトウェア セキュリティ テストの重要なコンポーネントであるペネトレーシ … 続きを読む

カテゴリー: cs.AI, cs.CR | LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks はコメントを受け付けていません