cs.CR」カテゴリーアーカイブ

Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D Object Detection

要約 マルチセンサーフュージョン(MSF)は、自律走行車(AV)の知覚、特にカメ … 続きを読む

カテゴリー: cs.CR, cs.CV | Fusion is Not Enough: Single Modal Attacks on Fusion Models for 3D Object Detection はコメントを受け付けていません

Training generative models from privatized data

要約 局所差分プライバシーは、プライバシーを保護したデータ収集のための強力な手法 … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | Training generative models from privatized data はコメントを受け付けていません

Safeguarding Data in Multimodal AI: A Differentially Private Approach to CLIP Training

要約 マルチモーダルAIの成功の急増は、視覚と言語のタスクにおけるデータプライバ … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT, stat.ML | Safeguarding Data in Multimodal AI: A Differentially Private Approach to CLIP Training はコメントを受け付けていません

Graph Learning Across Data Silos

要約 我々は、データが分散クライアントに配置され、プライバシーの問題などのために … 続きを読む

カテゴリー: cs.CR, cs.LG, eess.SP | Graph Learning Across Data Silos はコメントを受け付けていません

Killer Apps: Low-Speed, Large-Scale AI Weapons

要約 OpenAI、Meta、Anthropicなどの組織による最先端のGene … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG, I.2.7 | Killer Apps: Low-Speed, Large-Scale AI Weapons はコメントを受け付けていません

ImpNet: Imperceptible and blackbox-undetectable backdoors in compiled neural networks

要約 機械学習に対する初期のバックドア攻撃は、攻撃と防御の開発における軍拡競争を … 続きを読む

カテゴリー: cs.CR, cs.LG | ImpNet: Imperceptible and blackbox-undetectable backdoors in compiled neural networks はコメントを受け付けていません

How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries

要約 本研究では、大規模言語モデル(LLM)の安全性と倫理的使用に関する懸念の高 … 続きを読む

カテゴリー: cs.CL, cs.CR | How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries はコメントを受け付けていません

Investigating White-Box Attacks for On-Device Models

要約 数多くのモバイルアプリがディープラーニング機能を活用している。しかし、オン … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | Investigating White-Box Attacks for On-Device Models はコメントを受け付けていません

DrAttack: Prompt Decomposition and Reconstruction Makes Powerful LLM Jailbreakers

要約 大規模言語モデル(Large Language Models: LLMs) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | DrAttack: Prompt Decomposition and Reconstruction Makes Powerful LLM Jailbreakers はコメントを受け付けていません

Finetuning Large Language Models for Vulnerability Detection

要約 本稿では、ソースコード中の脆弱性を検出するタスクのために大規模言語モデル( … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Finetuning Large Language Models for Vulnerability Detection はコメントを受け付けていません