cs.CR」カテゴリーアーカイブ

Representation Bending for Large Language Model Safety

要約 大規模な言語モデル(LLM)は強力なツールとして浮上していますが、有害なコ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Representation Bending for Large Language Model Safety はコメントを受け付けていません

Accelerating IoV Intrusion Detection: Benchmarking GPU-Accelerated vs CPU-Based ML Libraries

要約 車両のインターネット(IOV)は、洗練された侵入検知システムを必要とする可 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Accelerating IoV Intrusion Detection: Benchmarking GPU-Accelerated vs CPU-Based ML Libraries はコメントを受け付けていません

FastLloyd: Federated, Accurate, Secure, and Tunable $k$-Means Clustering with Differential Privacy

要約 私たちは、プライバシーを摂取する$ k $ -meansクラスタリングの水 … 続きを読む

カテゴリー: cs.CR, cs.LG | FastLloyd: Federated, Accurate, Secure, and Tunable $k$-Means Clustering with Differential Privacy はコメントを受け付けていません

Identifying Predictions That Influence the Future: Detecting Performative Concept Drift in Data Streams

要約 概念ドリフトは、ストリーム学習のコンテキスト内で広く研究されています。 た … 続きを読む

カテゴリー: cs.CR, cs.LG, stat.ML | Identifying Predictions That Influence the Future: Detecting Performative Concept Drift in Data Streams はコメントを受け付けていません

Can Zero-Shot Commercial APIs Deliver Regulatory-Grade Clinical Text DeIdentification?

要約 非構造化された医療テキスト – Azure Health Da … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.IR, cs.LG, F.2.2 | Can Zero-Shot Commercial APIs Deliver Regulatory-Grade Clinical Text DeIdentification? はコメントを受け付けていません

Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method

要約 大規模な言語モデル(LLMS)のトレーニングコーパスの規模が増えると、モデ … 続きを読む

カテゴリー: cs.CL, cs.CR | Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method はコメントを受け付けていません

Machine Unlearning Fails to Remove Data Poisoning Attacks

要約 大規模な深い学習のために開発されたおおよそのマシンの概算のためのいくつかの … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CY, cs.LG | Machine Unlearning Fails to Remove Data Poisoning Attacks はコメントを受け付けていません

Backdoor Graph Condensation

要約 グラフ凝縮は最近、グラフニューラルネットワーク(GNNS)のトレーニング効 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Backdoor Graph Condensation はコメントを受け付けていません

Output Constraints as Attack Surface: Exploiting Structured Generation to Bypass LLM Safety Mechanisms

要約 コンテンツの警告:このホワイトペーパーには、読者にとって不快なLLMSによ … 続きを読む

カテゴリー: cs.AI, cs.CR | Output Constraints as Attack Surface: Exploiting Structured Generation to Bypass LLM Safety Mechanisms はコメントを受け付けていません

CASTLE: Benchmarking Dataset for Static Code Analyzers and LLMs towards CWE Detection

要約 特に重要なソフトウェアコンポーネントでは、ソースコードの脆弱性を特定するこ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | CASTLE: Benchmarking Dataset for Static Code Analyzers and LLMs towards CWE Detection はコメントを受け付けていません