stat.ML」カテゴリーアーカイブ

Toward Computationally Efficient Inverse Reinforcement Learning via Reward Shaping

要約 逆強化学習 (IRL) は計算的に困難であり、一般的なアプローチでは複数の … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Toward Computationally Efficient Inverse Reinforcement Learning via Reward Shaping はコメントを受け付けていません

Using Surprise Index for Competency Assessment in Autonomous Decision-Making

要約 この論文では、特に動的で不確実な環境で作業する場合の、タスクを実行する自律 … 続きを読む

カテゴリー: cs.RO, stat.ML | Using Surprise Index for Competency Assessment in Autonomous Decision-Making はコメントを受け付けていません

Symmetry Breaking and Equivariant Neural Networks

要約 深層学習における帰納的バイアスとして対称性を使用することは、サンプル効率の … 続きを読む

カテゴリー: cs.LG, stat.ML | Symmetry Breaking and Equivariant Neural Networks はコメントを受け付けていません

The impact of memory on learning sequence-to-sequence tasks

要約 自然言語処理におけるニューラル ネットワークの最近の成功により、シーケンス … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, stat.ML | The impact of memory on learning sequence-to-sequence tasks はコメントを受け付けていません

Fair Clustering: A Causal Perspective

要約 クラスタリング アルゴリズムは、既存の格差を意図せず拡大または強化し、不公 … 続きを読む

カテゴリー: cs.CY, cs.LG, stat.ML | Fair Clustering: A Causal Perspective はコメントを受け付けていません

Subspace Identification for Multi-Source Domain Adaptation

要約 マルチソース ドメイン アダプテーション (MSDA) 方法は、複数のラベ … 続きを読む

カテゴリー: cs.LG, stat.ML | Subspace Identification for Multi-Source Domain Adaptation はコメントを受け付けていません

Does provable absence of barren plateaus imply classical simulability? Or, why we need to rethink variational quantum computing

要約 最近、不毛の高原現象を理解するために多大な努力が払われている。 この視点の … 続きを読む

カテゴリー: cs.LG, quant-ph, stat.ML | Does provable absence of barren plateaus imply classical simulability? Or, why we need to rethink variational quantum computing はコメントを受け付けていません

Semiparametric Efficient Inference in Adaptive Experiments

要約 治療または対照への被験者の割り当てを管理するポリシーが時間の経過とともに変 … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Semiparametric Efficient Inference in Adaptive Experiments はコメントを受け付けていません

Let’s do the time-warp-attend: Learning topological invariants of dynamical systems

要約 電気回路から生態系ネットワークに至るまで、科学全般にわたる力学システムは、 … 続きを読む

カテゴリー: cs.LG, math.DS, stat.ML | Let’s do the time-warp-attend: Learning topological invariants of dynamical systems はコメントを受け付けていません

What does self-attention learn from Masked Language Modelling?

要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML | What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません