cs.CR」カテゴリーアーカイブ

LLM Security: Vulnerabilities, Attacks, Defenses, and Countermeasures

要約 大規模言語モデル(LLM)が進化し続ける中、その学習段階とモデル配備後の両 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, cs.NE | LLM Security: Vulnerabilities, Attacks, Defenses, and Countermeasures はコメントを受け付けていません

Secure Cluster-Based Hierarchical Federated Learning in Vehicular Networks

要約 階層的統合学習(HFL)は最近、車両ネットワークにおけるインテリジェントな … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.DC, cs.LG, cs.SY, eess.SY | Secure Cluster-Based Hierarchical Federated Learning in Vehicular Networks はコメントを受け付けていません

Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability

要約 機械学習はネットワーク侵入検知システム(NIDS)を大幅に進歩させたが、特 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.NI | Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability はコメントを受け付けていません

VIDSTAMP: A Temporally-Aware Watermark for Ownership and Integrity in Video Diffusion Models

要約 ビデオ拡散モデルの急速な台頭により、非常にリアルで時間的にコヒーレントなビ … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | VIDSTAMP: A Temporally-Aware Watermark for Ownership and Integrity in Video Diffusion Models はコメントを受け付けていません

AMUN: Adversarial Machine UNlearning

要約 ユーザーが忘却データセットの削除を要求できるマシンUlderningは、多 … 続きを読む

カテゴリー: cs.CR, cs.LG | AMUN: Adversarial Machine UNlearning はコメントを受け付けていません

TaeBench: Improving Quality of Toxic Adversarial Examples

要約 毒性テキスト検出器は、敵対的な例に対して脆弱になる可能性があります &#8 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | TaeBench: Improving Quality of Toxic Adversarial Examples はコメントを受け付けていません

Efficient IoT Intrusion Detection with an Improved Attention-Based CNN-BiLSTM Architecture

要約 インターネットのインターネット(IoT)システムの増え続けるセキュリティの … 続きを読む

カテゴリー: cs.AI, cs.CR | Efficient IoT Intrusion Detection with an Improved Attention-Based CNN-BiLSTM Architecture はコメントを受け付けていません

Traceback of Poisoning Attacks to Retrieval-Augmented Generation

要約 検索された生成(RAG)システムと統合された大規模な言語モデル(LLM)は … 続きを読む

カテゴリー: cs.CR, cs.IR, cs.LG | Traceback of Poisoning Attacks to Retrieval-Augmented Generation はコメントを受け付けていません

XBreaking: Explainable Artificial Intelligence for Jailbreaking LLMs

要約 大規模な言語モデルは、AIソリューションが支配する現代のITランドスケープ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | XBreaking: Explainable Artificial Intelligence for Jailbreaking LLMs はコメントを受け付けていません

Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems

要約 大規模な言語モデル(LLM)は、特に特定のアプリケーションに合わせて調整さ … 続きを読む

カテゴリー: cs.AI, cs.CR | Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems はコメントを受け付けていません