cs.CR」カテゴリーアーカイブ

Runtime Verification for Trustworthy Computing

要約 自律システムやロボットシステムは、その信頼が崩れた場合に重大な結果をもたら … 続きを読む

カテゴリー: cs.CR, cs.RO | Runtime Verification for Trustworthy Computing はコメントを受け付けていません

Private Ad Modeling with DP-SGD

要約 プライバシー保護 ML のよく知られたアルゴリズムは、差分プライベート確率 … 続きを読む

カテゴリー: cs.CR, cs.LG | Private Ad Modeling with DP-SGD はコメントを受け付けていません

AGIR: Automating Cyber Threat Intelligence Reporting with Natural Language Generation

要約 サイバー脅威インテリジェンス (CTI) レポートは、現代のリスク管理戦略 … 続きを読む

カテゴリー: cs.CL, cs.CR | AGIR: Automating Cyber Threat Intelligence Reporting with Natural Language Generation はコメントを受け付けていません

Shadow Alignment: The Ease of Subverting Safely-Aligned Language Models

要約 警告: この文書には有害な表現の例が含まれており、読者の判断は推奨されませ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Shadow Alignment: The Ease of Subverting Safely-Aligned Language Models はコメントを受け付けていません

FLEDGE: Ledger-based Federated Learning Resilient to Inference and Backdoor Attacks

要約 フェデレーテッド・ラーニング(FL)は、信頼できるアグリゲーション・サーバ … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.LG | FLEDGE: Ledger-based Federated Learning Resilient to Inference and Backdoor Attacks はコメントを受け付けていません

Abusing Images and Sounds for Indirect Instruction Injection in Multi-Modal LLMs

要約 マルチモーダルLLMにおいて、画像や音声を間接的なプロンプトや命令注入に利 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Abusing Images and Sounds for Indirect Instruction Injection in Multi-Modal LLMs はコメントを受け付けていません

Certifiers Make Neural Networks Vulnerable to Availability Attacks

要約 信頼性が高く、ロバストで安全なAIシステムを実現するためには、AIの予測が … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Certifiers Make Neural Networks Vulnerable to Availability Attacks はコメントを受け付けていません

On Data Fabrication in Collaborative Vehicular Perception: Attacks and Countermeasures

要約 外部リソースからのデータを取り込むことで、コネクテッドカーや自律走行車(C … 続きを読む

カテゴリー: cs.CR, cs.CV | On Data Fabrication in Collaborative Vehicular Perception: Attacks and Countermeasures はコメントを受け付けていません

Time Travel in LLMs: Tracing Data Contamination in Large Language Models

要約 データ汚染、つまり大規模言語モデル (LLM) のトレーニング データ内に … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Time Travel in LLMs: Tracing Data Contamination in Large Language Models はコメントを受け付けていません

Enhancing Robustness of AI Offensive Code Generators via Data Augmentation

要約 この研究では、コード記述に摂動を追加して、新しい単語の使用または単語の一部 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Enhancing Robustness of AI Offensive Code Generators via Data Augmentation はコメントを受け付けていません