月別アーカイブ: 2023年3月

Coordination of Multiple Robots along Given Paths with Bounded Junction Complexity

要約 マルチロボット/マルチエージェント システムの基本的な NP ハード モー … 続きを読む

カテゴリー: cs.CG, cs.DS, cs.MA, cs.RO | Coordination of Multiple Robots along Given Paths with Bounded Junction Complexity はコメントを受け付けていません

Extending DNN-based Multiplicative Masking to Deep Subband Filtering for Improved Dereverberation

要約 この論文では、時間-周波数ドメインでの音声復元のために、ディープ ニューラ … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS | Extending DNN-based Multiplicative Masking to Deep Subband Filtering for Improved Dereverberation はコメントを受け付けていません

Combining Slow and Fast: Complementary Filtering for Dynamics Learning

要約 未知の動的システムのモデル化は、システムの将来の動作を予測するために重要で … 続きを読む

カテゴリー: cs.LG | Combining Slow and Fast: Complementary Filtering for Dynamics Learning はコメントを受け付けていません

On the relationship between multivariate splines and infinitely-wide neural networks

要約 多変量スプラインを検討し、それらが 1 つの隠れ層と整流された線形ユニット … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | On the relationship between multivariate splines and infinitely-wide neural networks はコメントを受け付けていません

NNSVS: A Neural Network-Based Singing Voice Synthesis Toolkit

要約 この論文では、ニューラル ネットワークに基づく歌声合成研究用のオープン ソ … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS, eess.SP | NNSVS: A Neural Network-Based Singing Voice Synthesis Toolkit はコメントを受け付けていません

Learning from Good Trajectories in Offline Multi-Agent Reinforcement Learning

要約 オフライン マルチエージェント強化学習 (MARL) は、事前に収集された … 続きを読む

カテゴリー: cs.LG | Learning from Good Trajectories in Offline Multi-Agent Reinforcement Learning はコメントを受け付けていません

Regularized Newton Method with Global $O(1/k^2)$ Convergence

要約 任意の初期化から高速に収束し、Lipschitz Hessian を使用し … 続きを読む

カテゴリー: cs.LG, math.OC | Regularized Newton Method with Global $O(1/k^2)$ Convergence はコメントを受け付けていません

Learning curves for deep structured Gaussian feature models

要約 近年、深層学習理論では、複数層のガウス ランダム特徴を備えたモデルの一般化 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Learning curves for deep structured Gaussian feature models はコメントを受け付けていません

AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning Rate and Momentum for Training Deep Neural Networks

要約 シャープネス認識最小化 (SAM) オプティマイザーは、追加の摂動ステップ … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | AdaSAM: Boosting Sharpness-Aware Minimization with Adaptive Learning Rate and Momentum for Training Deep Neural Networks はコメントを受け付けていません

Comprehensive Analysis of Over-smoothing in Graph Neural Networks from Markov Chains Perspective

要約 過剰な平滑化の問題は、ディープ グラフ ニューラル ネットワーク (GNN … 続きを読む

カテゴリー: cs.LG | Comprehensive Analysis of Over-smoothing in Graph Neural Networks from Markov Chains Perspective はコメントを受け付けていません