cs.CR」カテゴリーアーカイブ

On Privately Estimating a Single Parameter

要約 大規模なパラメトリックモデル内の個々のパラメーターについて、差次的にプライ … 続きを読む

カテゴリー: cs.CR, cs.LG, math.ST, stat.TH | On Privately Estimating a Single Parameter はコメントを受け付けていません

PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data

要約 Federated Learning(FL)により、小売業者はプライバシー … 続きを読む

カテゴリー: cs.CR, cs.LG | PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data はコメントを受け付けていません

Human-in-the-Loop Generation of Adversarial Texts: A Case Study on Tibetan Script

要約 DNNベースの言語モデルは、さまざまなタスクで優れたパフォーマンスを発揮し … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.HC | Human-in-the-Loop Generation of Adversarial Texts: A Case Study on Tibetan Script はコメントを受け付けていません

SATA: A Paradigm for LLM Jailbreak via Simple Assistive Task Linkage

要約 大規模な言語モデル(LLM)は、さまざまなタスクで大きな進歩を遂げています … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | SATA: A Paradigm for LLM Jailbreak via Simple Assistive Task Linkage はコメントを受け付けていません

Temporal-Guided Spiking Neural Networks for Event-Based Human Action Recognition

要約 このペーパーでは、プライバシーを提供する人間の行動認識(HAR)のためのス … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.NE | Temporal-Guided Spiking Neural Networks for Event-Based Human Action Recognition はコメントを受け付けていません

CVE-Bench: A Benchmark for AI Agents’ Ability to Exploit Real-World Web Application Vulnerabilities

要約 大規模な言語モデル(LLM)エージェントは、サイバー攻撃を自律的に実施する … 続きを読む

カテゴリー: cs.AI, cs.CR, I.2.1 | CVE-Bench: A Benchmark for AI Agents’ Ability to Exploit Real-World Web Application Vulnerabilities はコメントを受け付けていません

Temporal-Spatial Attention Network (TSAN) for DoS Attack Detection in Network Traffic

要約 サービス拒否(DOS)攻撃は、ネットワークセキュリティ、サービスの混乱、重 … 続きを読む

カテゴリー: cs.AI, cs.CR | Temporal-Spatial Attention Network (TSAN) for DoS Attack Detection in Network Traffic はコメントを受け付けていません

Jailbreaking the Non-Transferable Barrier via Test-Time Data Disguising

要約 一般化を許可されていないドメインに制限する「非譲渡不可能な障壁」を作成する … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Jailbreaking the Non-Transferable Barrier via Test-Time Data Disguising はコメントを受け付けていません

Robust LLM safeguarding via refusal feature adversarial training

要約 大規模な言語モデル(LLM)は、有害な反応を引き出す可能性のある敵対的な攻 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Robust LLM safeguarding via refusal feature adversarial training はコメントを受け付けていません

‘Moralized’ Multi-Step Jailbreak Prompts: Black-Box Testing of Guardrails in Large Language Models for Verbal Attacks

要約 大規模な言語モデルの適用がさまざまな分野で拡大し続けるにつれて、有害なコン … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | ‘Moralized’ Multi-Step Jailbreak Prompts: Black-Box Testing of Guardrails in Large Language Models for Verbal Attacks はコメントを受け付けていません