cs.LG」カテゴリーアーカイブ

Machine-Learning-Enhanced Optimization of Noise-Resilient Variational Quantum Eigensolvers

要約 変分量子固有値解法(VQE)は、ハミルトニアンによって記述される量子系の基 … 続きを読む

カテゴリー: cs.LG, hep-lat, quant-ph | Machine-Learning-Enhanced Optimization of Noise-Resilient Variational Quantum Eigensolvers はコメントを受け付けていません

On Probabilistic Pullback Metrics on Latent Hyperbolic Manifolds

要約 確率的潜在変数モデル(LVM)は、複雑で高次元のデータを低次元の表現で捉え … 続きを読む

カテゴリー: cs.LG, stat.ML | On Probabilistic Pullback Metrics on Latent Hyperbolic Manifolds はコメントを受け付けていません

Harnessing Generative AI for Economic Insights

要約 我々は、12万件以上の企業の電話会議記録から、経済見通しに関する経営者の期 … 続きを読む

カテゴリー: cs.LG, econ.GN, q-fin.CP, q-fin.EC | Harnessing Generative AI for Economic Insights はコメントを受け付けていません

Neuromorphic Wireless Split Computing with Multi-Level Spikes

要約 生物学的プロセスに着想を得たニューロモーフィック・コンピューティングは、ス … 続きを読む

カテゴリー: cs.IT, cs.LG, cs.NE, math.IT | Neuromorphic Wireless Split Computing with Multi-Level Spikes はコメントを受け付けていません

Symmetry-Aware Generative Modeling through Learned Canonicalization

要約 対称密度の生成モデリングは、創薬から物理シミュレーションまで、科学のための … 続きを読む

カテゴリー: cs.LG | Symmetry-Aware Generative Modeling through Learned Canonicalization はコメントを受け付けていません

Improving Pareto Set Learning for Expensive Multi-objective Optimization via Stein Variational Hypernetworks

要約 多目的最適化問題(EMOPs)は、目的関数の評価にコストがかかり、大規模な … 続きを読む

カテゴリー: cs.LG, cs.NE, stat.ML | Improving Pareto Set Learning for Expensive Multi-objective Optimization via Stein Variational Hypernetworks はコメントを受け付けていません

Learning Time-Varying Multi-Region Communications via Scalable Markovian Gaussian Processes

要約 複数の領域にまたがる動的な脳内コミュニケーションを理解し構築することは、現 … 続きを読む

カテゴリー: cs.LG, stat.ML | Learning Time-Varying Multi-Region Communications via Scalable Markovian Gaussian Processes はコメントを受け付けていません

What is the Relationship between Tensor Factorizations and Circuits (and How Can We Exploit it)?

要約 本稿では、回路表現とテンソル分解という、一見異なるが基本的に関連する2つの … 続きを読む

カテゴリー: cs.LG | What is the Relationship between Tensor Factorizations and Circuits (and How Can We Exploit it)? はコメントを受け付けていません

How Do the Architecture and Optimizer Affect Representation Learning? On the Training Dynamics of Representations in Deep Neural Networks

要約 本稿では、ディープニューラルネットワーク(DNN)の表現が学習中にどのよう … 続きを読む

カテゴリー: cs.LG | How Do the Architecture and Optimizer Affect Representation Learning? On the Training Dynamics of Representations in Deep Neural Networks はコメントを受け付けていません

Mind the Gap: a Spectral Analysis of Rank Collapse and Signal Propagation in Attention Layers

要約 アテンション層は、現在の最先端のニューラルネットワークアーキテクチャである … 続きを読む

カテゴリー: cs.LG, stat.ML | Mind the Gap: a Spectral Analysis of Rank Collapse and Signal Propagation in Attention Layers はコメントを受け付けていません