cs.CR」カテゴリーアーカイブ

LaFA: Latent Feature Attacks on Non-negative Matrix Factorization

要約 機械学習 (ML) アプリケーションが急速に成長するにつれて、その信頼性を … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | LaFA: Latent Feature Attacks on Non-negative Matrix Factorization はコメントを受け付けていません

Investigating and Defending Shortcut Learning in Personalized Diffusion Models

要約 パーソナライズされた拡散モデルは、事前トレーニングされたテキストから画像へ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | Investigating and Defending Shortcut Learning in Personalized Diffusion Models はコメントを受け付けていません

Malicious Internet Entity Detection Using Local Graph Inference

要約 大規模ネットワークにおける悪意のある動作の検出は、高い表現力とスケーラブル … 続きを読む

カテゴリー: cs.CR, cs.LG | Malicious Internet Entity Detection Using Local Graph Inference はコメントを受け付けていません

Malicious Internet Entity Detection Using Local Graph Inference

要約 大規模ネットワークにおける悪意のある動作の検出は、高い表現力とスケーラブル … 続きを読む

カテゴリー: cs.CR, cs.LG | Malicious Internet Entity Detection Using Local Graph Inference はコメントを受け付けていません

Self-Evaluation as a Defense Against Adversarial Attacks on LLMs

要約 自己評価を利用した LLM への敵対的攻撃に対する防御策を紹介します。 私 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Self-Evaluation as a Defense Against Adversarial Attacks on LLMs はコメントを受け付けていません

Best-of-Venom: Attacking RLHF by Injecting Poisoned Preference Data

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Best-of-Venom: Attacking RLHF by Injecting Poisoned Preference Data はコメントを受け付けていません

Practical Attacks against Black-box Code Completion Engines

要約 大規模な言語モデルを利用した最新のコード補完エンジンは、周囲のコンテキスト … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.PL, cs.SE | Practical Attacks against Black-box Code Completion Engines はコメントを受け付けていません

Command-line Obfuscation Detection using Small Language Models

要約 検出を避けるために、攻撃者はコマンドラインの難読化を使用することがよくあり … 続きを読む

カテゴリー: cs.CR, cs.LG | Command-line Obfuscation Detection using Small Language Models はコメントを受け付けていません

Detection of Compromised Functions in a Serverless Cloud Environment

要約 サーバーレス コンピューティングは、サーバーレス機能を中核とする新たなクラ … 続きを読む

カテゴリー: cs.CR, cs.LG | Detection of Compromised Functions in a Serverless Cloud Environment はコメントを受け付けていません

Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models

要約 大規模言語モデル (LLM) パラメータの大幅な増加により、プロンプト ( … 続きを読む

カテゴリー: cs.CL, cs.CR | Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models はコメントを受け付けていません