投稿者「jarxiv」のアーカイブ

Graph of Attacks with Pruning: Optimizing Stealthy Jailbreak Prompt Generation for Enhanced LLM Content Moderation

要約 大規模な言語モデル(LLM)がますます普及するにつれて、敵対的な誤用に対す … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Graph of Attacks with Pruning: Optimizing Stealthy Jailbreak Prompt Generation for Enhanced LLM Content Moderation はコメントを受け付けていません

Graph-Based Floor Separation Using Node Embeddings and Clustering of WiFi Trajectories

要約 屋内ポジショニングシステム(IPS)は、複雑なマルチストア環境でのロケーシ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, cs.NI, cs.RO | Graph-Based Floor Separation Using Node Embeddings and Clustering of WiFi Trajectories はコメントを受け付けていません

AB-UPT: Scaling Neural CFD Surrogates for High-Fidelity Automotive Aerodynamics Simulations via Anchored-Branched Universal Physics Transformers

要約 神経代理モデリングの最近の進歩は、自動車空力などのアプリケーションの変革的 … 続きを読む

カテゴリー: cs.AI, cs.LG | AB-UPT: Scaling Neural CFD Surrogates for High-Fidelity Automotive Aerodynamics Simulations via Anchored-Branched Universal Physics Transformers はコメントを受け付けていません

A Neural Rejection System Against Universal Adversarial Perturbations in Radio Signal Classification

要約 近年の無線信号分類について、従来の方法よりも深い学習の利点が実証されていま … 続きを読む

カテゴリー: cs.AI, cs.LG | A Neural Rejection System Against Universal Adversarial Perturbations in Radio Signal Classification はコメントを受け付けていません

Spectra-to-Structure and Structure-to-Spectra Inference Across the Periodic Table

要約 X線吸収分光法(XAS)は、局所原子環境を調査するための強力な手法ですが、 … 続きを読む

カテゴリー: cs.AI, cs.LG | Spectra-to-Structure and Structure-to-Spectra Inference Across the Periodic Table はコメントを受け付けていません

Breaking Habits: On the Role of the Advantage Function in Learning Causal State Representations

要約 最近の研究では、補強学習エージェントが報酬と観察の間の偽の相関を活用するポ … 続きを読む

カテゴリー: cs.AI, cs.LG | Breaking Habits: On the Role of the Advantage Function in Learning Causal State Representations はコメントを受け付けていません

LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming?

要約 最近の報告によると、大規模な言語モデル(LLM)は、競争力のあるプログラミ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE | LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming? はコメントを受け付けていません

Improving Large Language Model Safety with Contrastive Representation Learning

要約 大規模な言語モデル(LLM)は、社会的影響を深める強力なツールですが、多様 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Improving Large Language Model Safety with Contrastive Representation Learning はコメントを受け付けていません

Today’s Cat Is Tomorrow’s Dog: Accounting for Time-Based Changes in the Labels of ML Vulnerability Detection Approaches

要約 MLテストに使用される脆弱性データセットには、遡及的情報が暗黙的に含まれて … 続きを読む

カテゴリー: cs.AI, cs.CR, I.2 | Today’s Cat Is Tomorrow’s Dog: Accounting for Time-Based Changes in the Labels of ML Vulnerability Detection Approaches はコメントを受け付けていません

Explainability of Large Language Models using SMILE: Statistical Model-agnostic Interpretability with Local Explanations

要約 GPT、Llama、Claudeなどの大規模な言語モデルは、テキストを生成 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Explainability of Large Language Models using SMILE: Statistical Model-agnostic Interpretability with Local Explanations はコメントを受け付けていません