I.2.6」カテゴリーアーカイブ

Tempered Calculus for ML: Application to Hyperbolic Model Embedding

要約 ML で使用されるほとんどの数学的歪みは、基本的に本質的に積分です。$f$ … 続きを読む

カテゴリー: cs.LG, I.2.6 | Tempered Calculus for ML: Application to Hyperbolic Model Embedding はコメントを受け付けていません

Almost Equivariance via Lie Algebra Convolutions

要約 近年、集団行動に関するモデルの等変量性は、機械学習における重要な研究テーマ … 続きを読む

カテゴリー: cs.LG, I.2.6, stat.ML | Almost Equivariance via Lie Algebra Convolutions はコメントを受け付けていません

HyperMask: Adaptive Hypernetwork-based Masks for Continual Learning

要約 人工ニューラル ネットワークは、複数のタスクを順番にトレーニングすると、壊 … 続きを読む

カテゴリー: 68T07, cs.AI, cs.LG, I.2.6 | HyperMask: Adaptive Hypernetwork-based Masks for Continual Learning はコメントを受け付けていません

Manipulating Predictions over Discrete Inputs in Machine Teaching

要約 機械教育では多くの場合、モデル (「生徒」と呼ばれる) が教師によって与え … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.6 | Manipulating Predictions over Discrete Inputs in Machine Teaching はコメントを受け付けていません

CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement Learning

要約 因果関係の発見は、データから因果構造を推測するという困難なタスクです。 受 … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.6 | CORE: Towards Scalable and Efficient Causal Discovery with Reinforcement Learning はコメントを受け付けていません

A Systematic Evaluation of Euclidean Alignment with Deep Learning for EEG Decoding

要約 脳波 (EEG) 信号は、さまざまなブレイン コンピューター インターフェ … 続きを読む

カテゴリー: cs.AI, cs.LG, eess.SP, I.2.6 | A Systematic Evaluation of Euclidean Alignment with Deep Learning for EEG Decoding はコメントを受け付けていません

Learning IMM Filter Parameters from Measurements using Gradient Descent

要約 データ融合および追跡アルゴリズムのパフォーマンスは、多くの場合、センサー … 続きを読む

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY, I.2.6 | Learning IMM Filter Parameters from Measurements using Gradient Descent はコメントを受け付けていません

Left/Right Brain, human motor control and the implications for robotics

要約 ニューラル ネットワーク動作コントローラーは、従来の制御方法に比べてさまざ … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.NE, cs.RO, I.2.6, q-bio.NC | Left/Right Brain, human motor control and the implications for robotics はコメントを受け付けていません

The Power of Linear Recurrent Neural Networks

要約 リカレント ニューラル ネットワークは、時系列に対処する強力な手段です。 … 続きを読む

カテゴリー: 15A06, 62M10, 62M45, 68T05, cs.LG, cs.NE, I.2.6 | The Power of Linear Recurrent Neural Networks はコメントを受け付けていません

Building Minimal and Reusable Causal State Abstractions for Reinforcement Learning

要約 強化学習 (RL) アルゴリズムの 2 つの要望は、比較的少ない経験から学 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO, I.2.6 | Building Minimal and Reusable Causal State Abstractions for Reinforcement Learning はコメントを受け付けていません