-
最近の投稿
- Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models
- $\mathcal{L}_1$Quad: $\mathcal{L}_1$ Adaptive Augmentation of Geometric Control for Agile Quadrotors with Performance Guarantees
- Scalable and low-cost remote lab platforms: Teaching industrial robotics using open-source tools and understanding its social implications
- Tabletop Object Rearrangement: Structure, Complexity, and Efficient Combinatorial Search-Based Solutions
- AdaCred: Adaptive Causal Decision Transformers with Feature Crediting
-
最近のコメント
表示できるコメントはありません。 cs.AI (31312) cs.CL (23684) cs.CR (2432) cs.CV (37678) cs.LG (36192) cs.RO (18300) cs.SY (2805) eess.IV (4529) eess.SY (2799) stat.ML (4795)
「cs.CR」カテゴリーアーカイブ
Augment then Smooth: Reconciling Differential Privacy with Certified Robustness
要約 機械学習モデルは、トレーニング データのプライバシーに対する攻撃や、モデル … 続きを読む
Can LLMs Obfuscate Code? A Systematic Analysis of Large Language Models into Assembly Code Obfuscation
要約 マルウェアの作成者は、マルウェアの検出を困難にするためにコードの難読化を採 … 続きを読む
Watertox: The Art of Simplicity in Universal Attacks A Cross-Model Framework for Robust Adversarial Generation
要約 現代の敵対的攻撃手法は、モデル間の移行性と実際の適用性において重大な制限に … 続きを読む
PEFT-as-an-Attack! Jailbreaking Language Models during Federated Parameter-Efficient Fine-Tuning
要約 Federated Parameter-Efficient Fine-Tu … 続きを読む
Do Parameters Reveal More than Loss for Membership Inference?
要約 メンバーシップ推論攻撃は、開示監査の重要なツールとして使用されます。 彼ら … 続きを読む
Large Language Models and Code Security: A Systematic Literature Review
要約 大規模言語モデル (LLM) は、脆弱性の検出や修正などのセキュリティ関連 … 続きを読む
SoK: Watermarking for AI-Generated Content
要約 生成 AI (GenAI) 技術の出力の品質が向上するにつれて、人間が作成 … 続きを読む
Adversarial Robustness of Link Sign Prediction in Signed Graphs
要約 符号付きグラフは、ソーシャル ネットワークにおける肯定的な関係と否定的な関 … 続きを読む
Flow Exporter Impact on Intelligent Intrusion Detection Systems
要約 特徴生成における不一致は脅威検出の精度と信頼性を妨げる可能性があるため、機 … 続きを読む
On the Robustness of Distributed Machine Learning against Transfer Attacks
要約 分散機械学習 (分散 ML) はコミュニティでかなりの注目を集めていますが … 続きを読む