-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CR」カテゴリーアーカイブ
Self-Evaluation as a Defense Against Adversarial Attacks on LLMs
要約 自己評価を利用した LLM への敵対的攻撃に対する防御策を紹介します。 私 … 続きを読む
Best-of-Venom: Attacking RLHF by Injecting Poisoned Preference Data
要約 ヒューマン フィードバックからの強化学習 (RLHF) は、言語モデル ( … 続きを読む
Practical Attacks against Black-box Code Completion Engines
要約 大規模な言語モデルを利用した最新のコード補完エンジンは、周囲のコンテキスト … 続きを読む
Command-line Obfuscation Detection using Small Language Models
要約 検出を避けるために、攻撃者はコマンドラインの難読化を使用することがよくあり … 続きを読む
Detection of Compromised Functions in a Serverless Cloud Environment
要約 サーバーレス コンピューティングは、サーバーレス機能を中核とする新たなクラ … 続きを読む
Why Are My Prompts Leaked? Unraveling Prompt Extraction Threats in Customized Large Language Models
要約 大規模言語モデル (LLM) パラメータの大幅な増加により、プロンプト ( … 続きを読む
Threats, Attacks, and Defenses in Machine Unlearning: A Survey
要約 Machine Unlearning (MU) は、トレーニング済みの機械 … 続きを読む
Can Reinforcement Learning Unlock the Hidden Dangers in Aligned Large Language Models?
要約 大規模言語モデル (LLM) は、自然言語タスクにおいて優れた機能を実証し … 続きを読む
CERT-ED: Certifiably Robust Text Classification for Edit Distance
要約 AIの日常生活への統合が進む中、推論時間攻撃に対するシステムの頑健性を保証 … 続きを読む
Jailbreaking Text-to-Image Models with LLM-Based Agents
要約 近年の進歩により、大規模言語モデル(LLM)を搭載した自律型エージェントを … 続きを読む