cs.CR」カテゴリーアーカイブ

Towards Robust and Secure Embodied AI: A Survey on Vulnerabilities and Attacks

要約 ロボットや自動運転車を含む具体化されたAIシステムは、環境レベルとシステム … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.RO | コメントする

Topic-FlipRAG: Topic-Orientated Adversarial Opinion Manipulation Attacks to Retrieval-Augmented Generation Models

要約 大規模な言語モデル(LLM)に基づいた検索された生成(RAG)システムは、 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.IR | コメントする

Ward: Provable RAG Dataset Inference via LLM Watermarks

要約 RAGにより、LLMは外部データを簡単に組み込むことができ、コンテンツの不 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Unveiling ECC Vulnerabilities: LSTM Networks for Operation Recognition in Side-Channel Attacks

要約 楕円曲線暗号化に対するサイドチャネル攻撃を実行するための新しいアプローチを … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

Institutional Platform for Secure Self-Service Large Language Model Exploration

要約 このペーパーでは、ケンタッキー大学応用AIセンターが開発したユーザーフレン … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Detecting Benchmark Contamination Through Watermarking

要約 ベンチマークの汚染は、テストセットでモデルがトレーニングされているかどうか … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Emoti-Attack: Zero-Perturbation Adversarial Attacks on NLP Systems via Emoji Sequences

要約 Deep Neural Networks(DNNS)は、Natural L … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs

要約 LLMSとアラインメントに関する驚くべき結果を提示します。 私たちの実験で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | コメントする

Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study

要約 機械学習(ML)モデルは主流になりつつありますが、特に敏感なアプリケーショ … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.NE | コメントする

A Defensive Framework Against Adversarial Attacks on Machine Learning-Based Network Intrusion Detection Systems

要約 サイバー攻撃がますます洗練されるにつれて、高度なネットワーク侵入検知システ … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする