cs.CR」カテゴリーアーカイブ

Has Approximate Machine Unlearning been evaluated properly? From Auditing to Side Effects

要約 データのプライバシーとセキュリティを巡る懸念の高まりにより、機械学習モデル … 続きを読む

カテゴリー: cs.CR, cs.LG | Has Approximate Machine Unlearning been evaluated properly? From Auditing to Side Effects はコメントを受け付けていません

Python Fuzzing for Trustworthy Machine Learning Frameworks

要約 信頼できる AI ベースのシステムを構築するには、機械学習フレームワークの … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.SE | Python Fuzzing for Trustworthy Machine Learning Frameworks はコメントを受け付けていません

LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks

要約 ソフトウェア セキュリティ テストの重要なコンポーネントであるペネトレーシ … 続きを読む

カテゴリー: cs.AI, cs.CR | LLMs as Hackers: Autonomous Linux Privilege Escalation Attacks はコメントを受け付けていません

On the Detectability of ChatGPT Content: Benchmarking, Methodology, and Evaluation through the Lens of Academic Writing

要約 ChatGPT が注目を集める中、学術論文作成を支援するために大規模言語モ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | On the Detectability of ChatGPT Content: Benchmarking, Methodology, and Evaluation through the Lens of Academic Writing はコメントを受け付けていません

Stop Reasoning! When Multimodal LLMs with Chain-of-Thought Reasoning Meets Adversarial Images

要約 最近、マルチモーダル LLM (MLLM) は画像を理解する優れた能力を示 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Stop Reasoning! When Multimodal LLMs with Chain-of-Thought Reasoning Meets Adversarial Images はコメントを受け付けていません

Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification

要約 コンフォーマル予測により、信頼性が高く堅牢な学習アルゴリズムを定義できます … 続きを読む

カテゴリー: 68T37, cs.CR, cs.LG, I.5.3, stat.ML | Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification はコメントを受け付けていません

SocialGenPod: Privacy-Friendly Generative AI Social Web Applications with Decentralised Personal Data Stores

要約 私たちは、生成 AI Web アプリケーションを展開する分散型でプライバシ … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.IR, cs.LG, cs.SI, H.3.5 | SocialGenPod: Privacy-Friendly Generative AI Social Web Applications with Decentralised Personal Data Stores はコメントを受け付けていません

Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness

要約 機械学習 (ML) は、ML モデルを騙して誤った予測を生成させることを目 … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.NI | Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness はコメントを受け付けていません

How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries

要約 この研究では、大規模言語モデル (LLM) の安全性と倫理的使用に関して高 … 続きを読む

カテゴリー: cs.CL, cs.CR | How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries はコメントを受け付けていません

Unsupervised Threat Hunting using Continuous Bag-of-Terms-and-Time (CBoTT)

要約 脅威ハンティングでは、システム ログを精査して、既存のセキュリティ対策を回 … 続きを読む

カテゴリー: cs.AI, cs.CR | Unsupervised Threat Hunting using Continuous Bag-of-Terms-and-Time (CBoTT) はコメントを受け付けていません