cs.LG」カテゴリーアーカイブ

SSPS: Self-Supervised Positive Sampling for Robust Self-Supervised Speaker Verification

要約 自己学習学習(SSL)は、スピーカー検証(SV)のかなりの進歩をもたらしま … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SD, eess.AS | SSPS: Self-Supervised Positive Sampling for Robust Self-Supervised Speaker Verification はコメントを受け付けていません

Bellman operator convergence enhancements in reinforcement learning algorithms

要約 このペーパーでは、国家、行動、および政策スペースの構造に焦点を当てることに … 続きを読む

カテゴリー: cs.AI, cs.LG | Bellman operator convergence enhancements in reinforcement learning algorithms はコメントを受け付けていません

KIPPO: Koopman-Inspired Proximal Policy Optimization

要約 強化学習(RL)はさまざまなドメインで大きな進歩を遂げており、近位政策最適 … 続きを読む

カテゴリー: cs.AI, cs.LG | KIPPO: Koopman-Inspired Proximal Policy Optimization はコメントを受け付けていません

CoLA: Compute-Efficient Pre-Training of LLMs via Low-Rank Activation

要約 フルサイズのMLPと注目の投影層は、大規模な言語モデル(LLM)の途方もな … 続きを読む

カテゴリー: cs.AI, cs.LG | CoLA: Compute-Efficient Pre-Training of LLMs via Low-Rank Activation はコメントを受け付けていません

Agent Context Protocols Enhance Collective Inference

要約 AIエージェントは、コーディング、推論、マルチモーダルの理解などの複雑なタ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Agent Context Protocols Enhance Collective Inference はコメントを受け付けていません

Online Scheduling for LLM Inference with KV Cache Constraints

要約 トレーニングされたモデルがユーザープロンプトに応じて一度に1つの単語を生成 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Online Scheduling for LLM Inference with KV Cache Constraints はコメントを受け付けていません

Towards a Foundation Model for Communication Systems

要約 人工知能(AI)は、さまざまなドメインで前例のないパフォーマンスを実証して … 続きを読む

カテゴリー: cs.AI, cs.LG, eess.SP | Towards a Foundation Model for Communication Systems はコメントを受け付けていません

Language Models Optimized to Fool Detectors Still Have a Distinct Style (And How to Change It)

要約 マシンテキスト検出器の開発においてかなりの進歩にもかかわらず、問題は本質的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Language Models Optimized to Fool Detectors Still Have a Distinct Style (And How to Change It) はコメントを受け付けていません

SATBench: Benchmarking LLMs’ Logical Reasoning via Automated Puzzle Generation from SAT Formulas

要約 Satbenchを紹介します。これは、ブールの満足度(SAT)の問題から派 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.LO | SATBench: Benchmarking LLMs’ Logical Reasoning via Automated Puzzle Generation from SAT Formulas はコメントを受け付けていません

TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning

要約 Rehnection Learning(RL)は、報酬信号でポリシーを最適 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TinyV: Reducing False Negatives in Verification Improves RL for LLM Reasoning はコメントを受け付けていません