cs.CR」カテゴリーアーカイブ

2SFGL: A Simple And Robust Protocol For Graph-Based Fraud Detection

要約 グラフ学習を使用した金融犯罪検出により、金融の安全性と効率が向上します。 … 続きを読む

カテゴリー: cs.AI, cs.CR | 2SFGL: A Simple And Robust Protocol For Graph-Based Fraud Detection はコメントを受け付けていません

Defending Our Privacy With Backdoors

要約 厳選されていない、多くの場合機密性の高い Web スクレイピング データに … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.CV, cs.LG | Defending Our Privacy With Backdoors はコメントを受け付けていません

In-Context Unlearning: Language Models as Few Shot Unlearners

要約 機械アンラーニングは、トレーニングされたモデルに対する特定のトレーニング … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | In-Context Unlearning: Language Models as Few Shot Unlearners はコメントを受け付けていません

BertRLFuzzer: A BERT and Reinforcement Learning based Fuzzer

要約 我々は、Web アプリケーションのセキュリティ脆弱性を発見することを目的と … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.SE | BertRLFuzzer: A BERT and Reinforcement Learning based Fuzzer はコメントを受け付けていません

Composite Backdoor Attacks Against Large Language Models

要約 大規模言語モデル (LLM) は、さまざまなタスクにおいて以前の方法と比較 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Composite Backdoor Attacks Against Large Language Models はコメントを受け付けていません

DiPmark: A Stealthy, Efficient and Resilient Watermark for Large Language Models

要約 透かし技術は、データに秘密情報を埋め込むことでデータを保護する有望な方法を … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | DiPmark: A Stealthy, Efficient and Resilient Watermark for Large Language Models はコメントを受け付けていません

In-Context Unlearning: Language Models as Few Shot Unlearners

要約 機械アンラーニングは、トレーニングされたモデルに対する特定のトレーニング … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | In-Context Unlearning: Language Models as Few Shot Unlearners はコメントを受け付けていません

Hermes: Unlocking Security Analysis of Cellular Network Protocols by Synthesizing Finite State Machines from Natural Language Specifications

要約 この論文では、自然言語のセルラー仕様から形式表現を自動的に生成するエンドツ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Hermes: Unlocking Security Analysis of Cellular Network Protocols by Synthesizing Finite State Machines from Natural Language Specifications はコメントを受け付けていません

Prompt Backdoors in Visual Prompt Learning

要約 事前にトレーニングされた大規模なコンピューター ビジョン モデルを微調整す … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Prompt Backdoors in Visual Prompt Learning はコメントを受け付けていません

Be Careful What You Smooth For: Label Smoothing Can Be a Privacy Shield but Also a Catalyst for Model Inversion Attacks

要約 ラベル スムージング (硬いラベルの代わりに柔らかいラベルを使用する) は … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Be Careful What You Smooth For: Label Smoothing Can Be a Privacy Shield but Also a Catalyst for Model Inversion Attacks はコメントを受け付けていません