cs.CR」カテゴリーアーカイブ

Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation

要約 マルウェアの著者は、多くの場合、コード難読化を採用して、マルウェアを検出し … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation はコメントを受け付けていません

Large Language Models and Code Security: A Systematic Literature Review

要約 大規模な言語モデル(LLM)は、脆弱性の検出や修正などのセキュリティ関連の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Large Language Models and Code Security: A Systematic Literature Review はコメントを受け付けていません

Improving Your Model Ranking on Chatbot Arena by Vote Rigging

要約 Chatbot Arenaは、ペアワイズバトルごとにLLMを評価するための … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Improving Your Model Ranking on Chatbot Arena by Vote Rigging はコメントを受け付けていません

Deciphering the Definition of Adversarial Robustness for post-hoc OOD Detectors

要約 分散除外(OOD)入力の検出は、実際のシナリオに深い学習モデルを安全に展開 … 続きを読む

カテゴリー: cs.CR, cs.CV | Deciphering the Definition of Adversarial Robustness for post-hoc OOD Detectors はコメントを受け付けていません

Federated Learning With Individualized Privacy Through Client Sampling

要約 ユーザーデータ収集に関する懸念が高まっているため、個別のプライバシーは、多 … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Federated Learning With Individualized Privacy Through Client Sampling はコメントを受け付けていません

Few Edges Are Enough: Few-Shot Network Attack Detection with Graph Neural Networks

要約 グラフニューラルネットワーク(GNNS)を使用してサイバー攻撃を検出すると … 続きを読む

カテゴリー: cs.CR, cs.LG | Few Edges Are Enough: Few-Shot Network Attack Detection with Graph Neural Networks はコメントを受け付けていません

Can Watermarked LLMs be Identified by Users via Crafted Prompts?

要約 大規模な言語モデル(LLMS)のテキスト透かしは、LLM出力の検出と誤用の … 続きを読む

カテゴリー: 68T50, cs.CL, cs.CR, I.2.7 | Can Watermarked LLMs be Identified by Users via Crafted Prompts? はコメントを受け付けていません

PAPILLON: Privacy Preservation from Internet-based and Local Language Model Ensembles

要約 ユーザーは、独自のLLMプロバイダーに機密情報を漏らし、重大なプライバシー … 続きを読む

カテゴリー: cs.CL, cs.CR | PAPILLON: Privacy Preservation from Internet-based and Local Language Model Ensembles はコメントを受け付けていません

Context is Key in Agent Security

要約 人間であろうとシステムであろうと、アクションの安全性を判断すると、アクショ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Context is Key in Agent Security はコメントを受け付けていません

Challenges in Ensuring AI Safety in DeepSeek-R1 Models: The Shortcomings of Reinforcement Learning Strategies

要約 大規模な言語モデル(LLM)は、推論、アラインメント、およびタスク固有のパ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Challenges in Ensuring AI Safety in DeepSeek-R1 Models: The Shortcomings of Reinforcement Learning Strategies はコメントを受け付けていません