cs.CR」カテゴリーアーカイブ

‘Nuclear Deployed!’: Analyzing Catastrophic Risks in Decision-making of Autonomous LLM Agents

要約 大規模言語モデル(LLM)は自律的な意思決定者へと進化しており、特に化学、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | ‘Nuclear Deployed!’: Analyzing Catastrophic Risks in Decision-making of Autonomous LLM Agents はコメントを受け付けていません

Poison-splat: Computation Cost Attack on 3D Gaussian Splatting

要約 画期的な性能と効率性で知られる3Dガウススプラッティング(3DGS)は、3 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.GR, cs.LG | Poison-splat: Computation Cost Attack on 3D Gaussian Splatting はコメントを受け付けていません

Enabling AutoML for Zero-Touch Network Security: Use-Case Driven Analysis

要約 ゼロタッチネットワーク(ZTNS)は、完全に自動化されたインテリジェントな … 続きを読む

カテゴリー: 68T01, 90C31, cs.CR, cs.LG, cs.NI, I.2.1 | Enabling AutoML for Zero-Touch Network Security: Use-Case Driven Analysis はコメントを受け付けていません

Behind the Tip of Efficiency: Uncovering the Submerged Threats of Jailbreak Attacks in Small Language Models

要約 小言語モデル(SLM)は、高効率と低い計算コストのために、エッジデバイスの … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Behind the Tip of Efficiency: Uncovering the Submerged Threats of Jailbreak Attacks in Small Language Models はコメントを受け付けていません

Learning diverse attacks on large language models for robust red-teaming and safety tuning

要約 有害な応答を引き出すレッドチーム、または識別プロンプトは、大規模な言語モデ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Learning diverse attacks on large language models for robust red-teaming and safety tuning はコメントを受け付けていません

Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference

要約 私たちは、次の迅速な指定ルールから大規模な言語モデル(LLMS)を破壊する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference はコメントを受け付けていません

Mitigating the Backdoor Effect for Multi-Task Model Merging via Safety-Aware Subspace

要約 モデルのマージは、複数のシングルタスクの微調整されたモデルを統合されたモデ … 続きを読む

カテゴリー: cs.CR, cs.LG | Mitigating the Backdoor Effect for Multi-Task Model Merging via Safety-Aware Subspace はコメントを受け付けていません

Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference

要約 私たちは、次の迅速な指定ルールから大規模な言語モデル(LLMS)を破壊する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference はコメントを受け付けていません

Shh, don’t say that! Domain Certification in LLMs

要約 大規模な言語モデル(LLM)は、狭いドメインを備えた制約付きタスクを実行す … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, stat.ML | Shh, don’t say that! Domain Certification in LLMs はコメントを受け付けていません

Privacy-Preserving Retrieval-Augmented Generation with Differential Privacy

要約 最近の大規模な言語モデル(LLMS)の顕著な進歩により、トレーニングデータ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Privacy-Preserving Retrieval-Augmented Generation with Differential Privacy はコメントを受け付けていません