cs.CR」カテゴリーアーカイブ

VEXIR2Vec: An Architecture-Neutral Embedding Framework for Binary Similarity

要約 バイナリの類似性には、2 つのバイナリ プログラムが同様の機能を示している … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.PL | VEXIR2Vec: An Architecture-Neutral Embedding Framework for Binary Similarity はコメントを受け付けていません

ICLGuard: Controlling In-Context Learning Behavior for Applicability Authorization

要約 インコンテキスト学習 (ICL) は、大規模言語モデル (LLM) の機能 … 続きを読む

カテゴリー: cs.CL, cs.CR | ICLGuard: Controlling In-Context Learning Behavior for Applicability Authorization はコメントを受け付けていません

A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning

要約 この論文では、まず、ベイジアン プライバシー定義と総変動距離プライバシー定 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning はコメントを受け付けていません

Prompting Techniques for Secure Code Generation: A Systematic Investigation

要約 大規模言語モデル (LLM) は、開発者が自然言語 (NL) 命令からコー … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, cs.SE | Prompting Techniques for Secure Code Generation: A Systematic Investigation はコメントを受け付けていません

Does CLIP Know My Face?

要約 さまざまなアプリケーションでのディープラーニングの台頭により、トレーニング … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Does CLIP Know My Face? はコメントを受け付けていません

Explainable Hyperdimensional Computing for Balancing Privacy and Transparency in Additive Manufacturing Monitoring

要約 学習モデルと組み合わせた現場センシングは、積層造形 (AM) プロセスにお … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Explainable Hyperdimensional Computing for Balancing Privacy and Transparency in Additive Manufacturing Monitoring はコメントを受け付けていません

Byzantine-Resilient Secure Aggregation for Federated Learning Without Privacy Compromises

要約 フェデレーテッド ラーニング (FL) は、大規模な機械学習において大きな … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT | Byzantine-Resilient Secure Aggregation for Federated Learning Without Privacy Compromises はコメントを受け付けていません

T2VSafetyBench: Evaluating the Safety of Text-to-Video Generative Models

要約 Sora の最近の開発は、テキストからビデオへの (T2V) 世代の新時代 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV, cs.LG | T2VSafetyBench: Evaluating the Safety of Text-to-Video Generative Models はコメントを受け付けていません

Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence

要約 ブラックボックス敵対的攻撃は、機械学習モデルを破壊する強力な可能性を示して … 続きを読む

カテゴリー: cs.CR, cs.LG | Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence はコメントを受け付けていません

Waterfall: Framework for Robust and Scalable Text Watermarking

要約 特に、大規模言語モデル(LLM)による言い換えや、著作権で保護されたテキス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Waterfall: Framework for Robust and Scalable Text Watermarking はコメントを受け付けていません