投稿者「jarxiv」のアーカイブ

Personalized Federated Learning under Model Dissimilarity Constraints

要約 連合学習における決定的な課題の1つは、クライアント間の統計的不均一性の課題 … 続きを読む

カテゴリー: cs.LG | Personalized Federated Learning under Model Dissimilarity Constraints はコメントを受け付けていません

Batched Nonparametric Bandits via k-Nearest Neighbor UCB

要約 バッチ付きノンパラメトリックコンテキストバンディットでシーケンシャルな意思 … 続きを読む

カテゴリー: 62G08, 62L05, 68Q32, 68T05, cs.LG, F.2.2, math.ST, stat.ME, stat.ML, stat.TH | Batched Nonparametric Bandits via k-Nearest Neighbor UCB はコメントを受け付けていません

Learning Nonlinear Dynamics in Physical Modelling Synthesis using Neural Ordinary Differential Equations

要約 モーダル合成方法は、分散された音楽システムをモデル化するための長年のアプロ … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS, physics.comp-ph | Learning Nonlinear Dynamics in Physical Modelling Synthesis using Neural Ordinary Differential Equations はコメントを受け付けていません

Pharmacophore-Conditioned Diffusion Model for Ligand-Based De Novo Drug Design

要約 生物活性分子の開発は、特に構造的または機能的なデータを欠く新しいターゲット … 続きを読む

カテゴリー: cs.LG | Pharmacophore-Conditioned Diffusion Model for Ligand-Based De Novo Drug Design はコメントを受け付けていません

An AI-driven framework for the prediction of personalised health response to air pollution

要約 大気汚染は、公衆衛生に大きな脅威をもたらし、多くの呼吸器疾患および心血管疾 … 続きを読む

カテゴリー: cs.LG, physics.ao-ph | An AI-driven framework for the prediction of personalised health response to air pollution はコメントを受け付けていません

VQ-Logits: Compressing the Output Bottleneck of Large Language Models via Vector Quantized Logits

要約 大規模な言語モデル(LLM)は驚くべき成功を収めていますが、特に広範な出力 … 続きを読む

カテゴリー: cs.CL | VQ-Logits: Compressing the Output Bottleneck of Large Language Models via Vector Quantized Logits はコメントを受け付けていません

Latent Action Pretraining from Videos

要約 General Action Models(LAPA)の潜在的なアクション … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG, cs.RO | Latent Action Pretraining from Videos はコメントを受け付けていません

RAIDEN-R1: Improving Role-awareness of LLMs via GRPO with Verifiable Reward

要約 ロールプレイング会話エージェント(RPCA)は、役割の一貫性を維持する上で … 続きを読む

カテゴリー: cs.CL | RAIDEN-R1: Improving Role-awareness of LLMs via GRPO with Verifiable Reward はコメントを受け付けていません

ComplexFormer: Disruptively Advancing Transformer Inference Ability via Head-Specific Complex Vector Attention

要約 変圧器モデルは、トークンの依存関係をキャプチャするために自己関節に依存して … 続きを読む

カテゴリー: cs.CL, cs.LG | ComplexFormer: Disruptively Advancing Transformer Inference Ability via Head-Specific Complex Vector Attention はコメントを受け付けていません

TensorLLM: Tensorising Multi-Head Attention for Enhanced Reasoning and Compression in LLMs

要約 大規模な言語モデル(LLM)の推論能力は、重量を構造的に除去することで改善 … 続きを読む

カテゴリー: cs.CL, cs.LG | TensorLLM: Tensorising Multi-Head Attention for Enhanced Reasoning and Compression in LLMs はコメントを受け付けていません