cs.CR」カテゴリーアーカイブ

SoK: Pitfalls in Evaluating Black-Box Attacks

要約 画像分類器に対するブラックボックス攻撃を研究する研究が数多くあります。 し … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | SoK: Pitfalls in Evaluating Black-Box Attacks はコメントを受け付けていません

Defending Against Transfer Attacks From Public Models

要約 敵対的攻撃は、業界において迫りくるものの対処されていない脅威です。 しかし … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Defending Against Transfer Attacks From Public Models はコメントを受け付けていません

Detecting Pretraining Data from Large Language Models

要約 大規模言語モデル (LLM) は広く導入されていますが、そのトレーニングに … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Detecting Pretraining Data from Large Language Models はコメントを受け付けていません

An Observer-Based Key Agreement Scheme for Remotely Controlled Mobile Robots

要約 遠隔制御される移動ロボットは、サイバーフィジカル システム (CPS) の … 続きを読む

カテゴリー: cs.CR, cs.RO, cs.SY, eess.SY | An Observer-Based Key Agreement Scheme for Remotely Controlled Mobile Robots はコメントを受け付けていません

Provably Valid and Diverse Mutations of Real-World Media Data for DNN Testing

要約 ディープ ニューラル ネットワーク (DNN) は、多くの場合、高次元のメ … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SE | Provably Valid and Diverse Mutations of Real-World Media Data for DNN Testing はコメントを受け付けていません

Kidnapping Deep Learning-based Multirotors using Optimized Flying Adversarial Patches

要約 マルチコプターなどの自律飛行ロボットは、多くの場合、カメラ画像に基づいて予 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.RO | Kidnapping Deep Learning-based Multirotors using Optimized Flying Adversarial Patches はコメントを受け付けていません

Did the Neurons Read your Book? Document-level Membership Inference for Large Language Models

要約 大規模言語モデル (LLM) が私たちの日常生活に組み込まれようとしており … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Did the Neurons Read your Book? Document-level Membership Inference for Large Language Models はコメントを受け付けていません

Evaluating LLMs for Privilege-Escalation Scenarios

要約 サイバーセキュリティの重要な要素であるペネトレーションテストにより、組織は … 続きを読む

カテゴリー: cs.AI, cs.CR | Evaluating LLMs for Privilege-Escalation Scenarios はコメントを受け付けていません

AutoDAN: Automatic and Interpretable Adversarial Attacks on Large Language Models

要約 大規模言語モデル (LLM) の安全性調整は、手動のジェイルブレイク攻撃や … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | AutoDAN: Automatic and Interpretable Adversarial Attacks on Large Language Models はコメントを受け付けていません

On the Detection of Image-Scaling Attacks in Machine Learning

要約 画像のスケーリングは、機械学習およびコンピューター ビジョン システムに不 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | On the Detection of Image-Scaling Attacks in Machine Learning はコメントを受け付けていません