cs.CR」カテゴリーアーカイブ

Distract Large Language Models for Automatic Jailbreak Attack

要約 大規模言語モデル (LLM) の一般公開前に、その動作を人間の価値観に合わ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Distract Large Language Models for Automatic Jailbreak Attack はコメントを受け付けていません

Harmful Fine-tuning Attacks and Defenses for Large Language Models: A Survey

要約 最近の調査によると、サービスとしての微調整の初期段階のビジネス モデルは、 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Harmful Fine-tuning Attacks and Defenses for Large Language Models: A Survey はコメントを受け付けていません

Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity

要約 言語モデルが ASCII アートを解釈できないことを利用した、新しい敵対的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity はコメントを受け付けていません

Bi-Directional Transformers vs. word2vec: Discovering Vulnerabilities in Lifted Compiled Code

要約 コンパイルされたバイナリ内の脆弱性を検出することは、高レベルのコード構造が … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG, cs.SE, I.2.6 | Bi-Directional Transformers vs. word2vec: Discovering Vulnerabilities in Lifted Compiled Code はコメントを受け付けていません

Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity

要約 言語モデルが ASCII アートを解釈できないことを利用した、新しい敵対的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Read Over the Lines: Attacking LLMs and Toxicity Detection Systems with ASCII Art to Mask Profanity はコメントを受け付けていません

LLM Detectors Still Fall Short of Real World: Case of LLM-Generated Short News-Like Posts

要約 広く利用可能な強力な LLM の出現により、大規模な言語モデル (LLM) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | LLM Detectors Still Fall Short of Real World: Case of LLM-Generated Short News-Like Posts はコメントを受け付けていません

Designing Short-Stage CDC-XPUFs: Balancing Reliability, Cost, and Security in IoT Devices

要約 モノのインターネット (IoT) デバイスの急速な拡大には、堅牢でリソース … 続きを読む

カテゴリー: cs.CR, cs.LG | Designing Short-Stage CDC-XPUFs: Balancing Reliability, Cost, and Security in IoT Devices はコメントを受け付けていません

AC4: Algebraic Computation Checker for Circuit Constraints in ZKPs

要約 ゼロ知識証明 (ZKP) システムは注目を集めており、現代の暗号化において … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.SE | AC4: Algebraic Computation Checker for Circuit Constraints in ZKPs はコメントを受け付けていません

Weak-To-Strong Backdoor Attacks for LLMs with Contrastive Knowledge Distillation

要約 大規模言語モデル (LLM) は、その優れた機能により広く適用されているに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Weak-To-Strong Backdoor Attacks for LLMs with Contrastive Knowledge Distillation はコメントを受け付けていません

An Adversarial Perspective on Machine Unlearning for AI Safety

要約 大規模な言語モデルは、危険な知識に関する質問を拒否するように微調整されてい … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | An Adversarial Perspective on Machine Unlearning for AI Safety はコメントを受け付けていません