cs.CR」カテゴリーアーカイブ

On the Detectability of ChatGPT Content: Benchmarking, Methodology, and Evaluation through the Lens of Academic Writing

要約 ChatGPT が注目を集める中、学術論文作成を支援するために大規模言語モ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | On the Detectability of ChatGPT Content: Benchmarking, Methodology, and Evaluation through the Lens of Academic Writing はコメントを受け付けていません

Stop Reasoning! When Multimodal LLMs with Chain-of-Thought Reasoning Meets Adversarial Images

要約 最近、マルチモーダル LLM (MLLM) は画像を理解する優れた能力を示 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG | Stop Reasoning! When Multimodal LLMs with Chain-of-Thought Reasoning Meets Adversarial Images はコメントを受け付けていません

Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification

要約 コンフォーマル予測により、信頼性が高く堅牢な学習アルゴリズムを定義できます … 続きを読む

カテゴリー: 68T37, cs.CR, cs.LG, I.5.3, stat.ML | Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification はコメントを受け付けていません

SocialGenPod: Privacy-Friendly Generative AI Social Web Applications with Decentralised Personal Data Stores

要約 私たちは、生成 AI Web アプリケーションを展開する分散型でプライバシ … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.IR, cs.LG, cs.SI, H.3.5 | SocialGenPod: Privacy-Friendly Generative AI Social Web Applications with Decentralised Personal Data Stores はコメントを受け付けていません

Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness

要約 機械学習 (ML) は、ML モデルを騙して誤った予測を生成させることを目 … 続きを読む

カテゴリー: cs.CR, cs.LG, cs.NI | Introducing Adaptive Continuous Adversarial Training (ACAT) to Enhance ML Robustness はコメントを受け付けていません

How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries

要約 この研究では、大規模言語モデル (LLM) の安全性と倫理的使用に関して高 … 続きを読む

カテゴリー: cs.CL, cs.CR | How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries はコメントを受け付けていません

Unsupervised Threat Hunting using Continuous Bag-of-Terms-and-Time (CBoTT)

要約 脅威ハンティングでは、システム ログを精査して、既存のセキュリティ対策を回 … 続きを読む

カテゴリー: cs.AI, cs.CR | Unsupervised Threat Hunting using Continuous Bag-of-Terms-and-Time (CBoTT) はコメントを受け付けていません

Logits of API-Protected LLMs Leak Proprietary Information

要約 大規模言語モデル (LLM) の商用化により、独自モデルへの高レベル AP … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | Logits of API-Protected LLMs Leak Proprietary Information はコメントを受け付けていません

Expressive Losses for Verified Robustness via Convex Combinations

要約 検証された敵対的堅牢性についてネットワークをトレーニングするために、摂動領 … 続きを読む

カテゴリー: cs.CR, cs.LG, stat.ML | Expressive Losses for Verified Robustness via Convex Combinations はコメントを受け付けていません

AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting

要約 マルチモーダル大規模言語モデル (MLLM) の出現と広範な展開に伴い、そ … 続きを読む

カテゴリー: cs.AI, cs.CR | AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting はコメントを受け付けていません