Diffusion Models for Cayley Graphs

要約

Rubik’sキューブを例として使用して、Cayleyのグループとグループアクションのグラフでパスを見つける問題を確認し、重要な数学的関心のある例をいくつかリストします。
次に、拡散モデルのフレームワークでこれらの問題を策定する方法を示します。
グラフの探索は、順方向プロセスによって実行されますが、ターゲットノードを見つけることは逆の逆方向プロセスによって行われます。
これは議論を体系化し、多くの一般化を示唆しています。
探索を改善するために、以前の同等のアルゴリズムで大幅に改善する「逆スコア」Ansatzを提案します。

要約(オリジナル)

We review the problem of finding paths in Cayley graphs of groups and group actions, using the Rubik’s cube as an example, and we list several more examples of significant mathematical interest. We then show how to formulate these problems in the framework of diffusion models. The exploration of the graph is carried out by the forward process, while finding the target nodes is done by the inverse backward process. This systematizes the discussion and suggests many generalizations. To improve exploration, we propose a “reversed score” ansatz which substantially improves over previous comparable algorithms.

arxiv情報

著者 Michael R. Douglas,Cristofero Fraser-Taliente
発行日 2025-03-07 16:33:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 20-08, 68T20, cs.LG, math.CO, math.GR | Diffusion Models for Cayley Graphs はコメントを受け付けていません

Global graph features unveiled by unsupervised geometric deep learning

要約

グラフは複雑なシステムをモデリングするための強力なフレームワークを提供しますが、その構造的変動性により分析と分類が困難になります。
これに対処するために、Gaudi(グラフ自動エンコーダーが記述情報を明らかにするグラフ自動エンコーダー)を紹介します。これは、ローカルの詳細とグローバル構造の両方を捉えた監視されていない幾何学的な深い学習フレームワークです。
Gaudiは、階層的なプーリングとアップサンプリングレイヤーを備えた革新的な砂時計アーキテクチャを採用しており、スキップ接続を通じてリンクして、エンコーディングデコードプロセス全体で必須の接続情報を保存します。
同じ基礎となるパラメーターから生成されたシステムの異なる実現を、連続的で構造化された潜在スペースにマッピングすることにより、Gaudi Disentangles不変プロセスレベルの機能を確率的ノイズから。
小規模ネットワークのモデリング、超解像度顕微鏡からのタンパク質アセンブリの特徴づけ、VicSekモデルの集合的な動きの分析、脳のつながりの年齢に関連した変化のキャプチャなど、複数のアプリケーションにわたってそのパワーを実証します。
このアプローチは、複雑なグラフの分析を改善するだけでなく、多様な科学的領域全体の緊急現象に関する新しい洞察も提供します。

要約(オリジナル)

Graphs provide a powerful framework for modeling complex systems, but their structural variability makes analysis and classification challenging. To address this, we introduce GAUDI (Graph Autoencoder Uncovering Descriptive Information), a novel unsupervised geometric deep learning framework that captures both local details and global structure. GAUDI employs an innovative hourglass architecture with hierarchical pooling and upsampling layers, linked through skip connections to preserve essential connectivity information throughout the encoding-decoding process. By mapping different realizations of a system – generated from the same underlying parameters – into a continuous, structured latent space, GAUDI disentangles invariant process-level features from stochastic noise. We demonstrate its power across multiple applications, including modeling small-world networks, characterizing protein assemblies from super-resolution microscopy, analyzing collective motion in the Vicsek model, and capturing age-related changes in brain connectivity. This approach not only improves the analysis of complex graphs but also provides new insights into emergent phenomena across diverse scientific domains.

arxiv情報

著者 Mirja Granfors,Jesús Pineda,Blanca Zufiria Gerbolés,Joana B. Pereira,Carlo Manzo,Giovanni Volpe
発行日 2025-03-07 16:38:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.soft, cs.LG, physics.bio-ph, q-bio.QM | Global graph features unveiled by unsupervised geometric deep learning はコメントを受け付けていません

Tractable Representations for Convergent Approximation of Distributional HJB Equations

要約

強化学習(RL)では、意思決定ポリシーの長期的な行動は、平均収益に基づいて評価されます。
分布RLが出現し、リスクに敏感な考慮事項を組み込んだポリシーを評価するための追加の統計を提供するリターン分布を学習するための手法を提示します。
時間の経過を自然に離散時間増分に分割できない場合、研究者は連続時間RL(CTRL)問題を研究しており、エージェントの状態と決定が継続的に進化します。
この設定では、Hamilton-Jacobi-Bellman(HJB)方程式は、期待収益の特性評価として十分に確立されており、多くのソリューション方法が存在します。
ただし、連続時間設定における分布RLの研究は初期段階にあります。
最近の研究により、分布HJB(DHJB)方程式が確立されており、CTRLの戻り分布の最初の特性評価を提供しています。
これらの方程式とそのソリューションは、正確に解決して表すことができないため、新しい近似技術が必要です。
この作業は、この目的に向かって進み、DHJB方程式をほぼ解決できるリターン分布をパラメーター化する方法の条件を確立します。
特に、分布RLアルゴリズムと対応する分布によって学習された統計間のマッピングの特定のトポロジプロパティの下で、これらの統計の近似がDHJB方程式の解の密接な近似につながることを示しています。
具体的には、分布RLで一般的な分位表現がこのトポロジー特性を満たし、連続時間分布RLの効率的な近似アルゴリズムを認証することを実証します。

要約(オリジナル)

In reinforcement learning (RL), the long-term behavior of decision-making policies is evaluated based on their average returns. Distributional RL has emerged, presenting techniques for learning return distributions, which provide additional statistics for evaluating policies, incorporating risk-sensitive considerations. When the passage of time cannot naturally be divided into discrete time increments, researchers have studied the continuous-time RL (CTRL) problem, where agent states and decisions evolve continuously. In this setting, the Hamilton-Jacobi-Bellman (HJB) equation is well established as the characterization of the expected return, and many solution methods exist. However, the study of distributional RL in the continuous-time setting is in its infancy. Recent work has established a distributional HJB (DHJB) equation, providing the first characterization of return distributions in CTRL. These equations and their solutions are intractable to solve and represent exactly, requiring novel approximation techniques. This work takes strides towards this end, establishing conditions on the method of parameterizing return distributions under which the DHJB equation can be approximately solved. Particularly, we show that under a certain topological property of the mapping between statistics learned by a distributional RL algorithm and corresponding distributions, approximation of these statistics leads to close approximations of the solution of the DHJB equation. Concretely, we demonstrate that the quantile representation common in distributional RL satisfies this topological property, certifying an efficient approximation algorithm for continuous-time distributional RL.

arxiv情報

著者 Julie Alhosh,Harley Wiltzer,David Meger
発行日 2025-03-07 16:43:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML | Tractable Representations for Convergent Approximation of Distributional HJB Equations はコメントを受け付けていません

BSAC-CoEx: Coexistence of URLLC and Distributed Learning Services via Device Selection

要約

分散型インテリジェンスの最近の進歩により、産業の自動化から自律輸送まで、多様なアプリケーションにわたって印象的な進歩が促進されています。
それにもかかわらず、ワイヤレスネットワーク上に分散学習サービスを展開することは、多くの課題をもたらします。
これらは、ワイヤレス環境(ランダムチャネルの変動など)に固有の不確実性、限られたリソース(帯域幅や送信電力など)、およびネットワーク上の共存サービスの存在から生じます。
このホワイトペーパーでは、より優先順位の超信頼性の低いレイテンシー通信(URLLC)と低優先度分散学習サービスがネットワーク上で同時に実行される混合サービスシナリオを調査します。
デバイスの選択を利用して、分散学習の収束時間を最小限に抑えながら、同時にURLLCサービスの要件を満たすことを目指しています。
この問題をマルコフの決定プロセスとして定式化し、BSAC-COEXを介して対処します。BSAC-COEXは、俳優のニューラルネットワークの別個のブランチを通じて各デバイスの参加決定を決定する分岐ソフトアクタークリティック(BSAC)アルゴリズムに基づいたフレームワークです。
ファクトリーオートメーションユースケースの3GPP標準に準拠した現実的なシミュレーターでソリューションを評価します。
私たちのシミュレーション結果は、私たちのソリューションが分散学習サービスのトレーニング遅延を大幅に減少させることができることを確認していますが、URLLCの可用性は必要なしきい値を超え、URLLCがすべてのワイヤレスリソースのみを消費するシナリオに近づくことができます。

要約(オリジナル)

Recent advances in distributed intelligence have driven impressive progress across a diverse range of applications, from industrial automation to autonomous transportation. Nevertheless, deploying distributed learning services over wireless networks poses numerous challenges. These arise from inherent uncertainties in wireless environments (e.g., random channel fluctuations), limited resources (e.g., bandwidth and transmit power), and the presence of coexisting services on the network. In this paper, we investigate a mixed service scenario wherein high-priority ultra-reliable low latency communication (URLLC) and low-priority distributed learning services run concurrently over a network. Utilizing device selection, we aim to minimize the convergence time of distributed learning while simultaneously fulfilling the requirements of the URLLC service. We formulate this problem as a Markov decision process and address it via BSAC-CoEx, a framework based on the branching soft actor-critic (BSAC) algorithm that determines each device’s participation decision through distinct branches in the actor’s neural network. We evaluate our solution with a realistic simulator that is compliant with 3GPP standards for factory automation use cases. Our simulation results confirm that our solution can significantly decrease the training delays of the distributed learning service while keeping the URLLC availability above its required threshold and close to the scenario where URLLC solely consumes all wireless resources.

arxiv情報

著者 Milad Ganjalizadeh,Hossein Shokri Ghadikolaei,Deniz Gündüz,Marina Petrova
発行日 2025-03-07 16:52:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NI, math.OC | BSAC-CoEx: Coexistence of URLLC and Distributed Learning Services via Device Selection はコメントを受け付けていません

BARK: A Fully Bayesian Tree Kernel for Black-box Optimization

要約

ベイジアン添加剤回帰ツリー(BART)に関するガウスプロセスの視点を使用して、ベイジアンの最適化を実行します。
Bart Kernel(Bark)はツリー契約を使用して、区分上の関心のある機能上の後部を定義し、マルコフチェーンモンテカルロアプローチを使用してツリーカーネルの空間を探索します。
BARTが機能のみをサンプリングする場合、結果の樹皮モデルは、機能上の分布を定義するガウスプロセスのサンプルを取得し、ベイジアン最適化のための取得関数を構築できるようにします。
私たちのツリーベースのアプローチにより、混合機能スペースであっても、サロゲートよりもグローバルな最適化が可能になります。
さらに、以前のツリーベースの多くのカーネルが関数値よりも不確実性の定量化を提供する場合、サンプリングスキームはツリー構造自体の不確実性をキャプチャします。
私たちの実験は、完全なベイズの代理と最適化手順の組み合わせにより、合成ベンチマークと応用ベンチマークの両方で樹皮の強力な性能を示しています。

要約(オリジナル)

We perform Bayesian optimization using a Gaussian process perspective on Bayesian Additive Regression Trees (BART). Our BART Kernel (BARK) uses tree agreement to define a posterior over piecewise-constant functions, and we explore the space of tree kernels using a Markov chain Monte Carlo approach. Where BART only samples functions, the resulting BARK model obtains samples of Gaussian processes defining distributions over functions, which allow us to build acquisition functions for Bayesian optimization. Our tree-based approach enables global optimization over the surrogate, even for mixed-feature spaces. Moreover, where many previous tree-based kernels provide uncertainty quantification over function values, our sampling scheme captures uncertainty over the tree structure itself. Our experiments show the strong performance of BARK on both synthetic and applied benchmarks, due to the combination of our fully Bayesian surrogate and the optimization procedure.

arxiv情報

著者 Toby Boyne,Jose Pablo Folch,Robert M Lee,Behrang Shafei,Ruth Misener
発行日 2025-03-07 16:56:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML | BARK: A Fully Bayesian Tree Kernel for Black-box Optimization はコメントを受け付けていません

The NP-hardness of the Gromov-Wasserstein distance

要約

このメモは、Gromov-Wasserstein(GW)距離がNPハードであると文献で頻繁に言及されているプロパティを扱っています。
入力データの任意のインスタンスの有限空間間のGW距離のNPハードネスを意味する、GW最適化問題の非凸性の性質に関する詳細を提供します。
さらに、いくつかの明示的な例を使用して、問題の非概念性を説明します。

要約(オリジナル)

This note addresses the property frequently mentioned in the literature that the Gromov-Wasserstein (GW) distance is NP-hard. We provide the details on the non-convex nature of the GW optimization problem that imply NP-hardness of the GW distance between finite spaces for any instance of an input data. We further illustrate the non-convexity of the problem with several explicit examples.

arxiv情報

著者 Natalia Kravtsova
発行日 2025-03-07 16:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | The NP-hardness of the Gromov-Wasserstein distance はコメントを受け付けていません

opXRD: Open Experimental Powder X-ray Diffraction Database

要約

粉末X線回折(PXRD)実験は、材料構造の特性評価の基礎です。
それらの広範なアプリケーションにもかかわらず、PXRDの回折グラムの分析は、自動運転ラボでのハイスループット発見における自動化とボトルネックに依然として大きな課題を提示しています。
機械学習は、自動化された粉末回折分析を可能にすることにより、このボトルネックを解決することを約束します。
このドメインに機械学習を適用する際の顕著な困難は、十分にサイズの実験データセットがないことです。これにより、研究者は主にシミュレートされたデータをトレーニングすることが制約されています。
ただし、シミュレートされたPXRDパターンでトレーニングされたモデルは、特に高いノイズレベルと背景の上昇を伴う低品質の実験パターンについて、実験パターンへの一般化が限られていることを示しました。
Open Experimental Powder X-Ray回折データベース(OPXRD)を使用すると、ラベル付きおよび非標識実験粉末回折のオープンに利用可能で簡単にアクセス可能なデータセットを提供します。
ラベル付きOPXRDデータを使用して、実験データ上のモデルのパフォーマンスを評価できます。
転送学習方法を通じて。
幅広い材料クラスから、2179個のラベルが付けられた\ numpatterns fractogramsを収集しました。
この継続的な取り組みが、PXRDデータの完全に自動化された分析に向けて機械学習研究を導き、将来の自動運転材料ラボを可能にすることを願っています。

要約(オリジナル)

Powder X-ray diffraction (pXRD) experiments are a cornerstone for materials structure characterization. Despite their widespread application, analyzing pXRD diffractograms still presents a significant challenge to automation and a bottleneck in high-throughput discovery in self-driving labs. Machine learning promises to resolve this bottleneck by enabling automated powder diffraction analysis. A notable difficulty in applying machine learning to this domain is the lack of sufficiently sized experimental datasets, which has constrained researchers to train primarily on simulated data. However, models trained on simulated pXRD patterns showed limited generalization to experimental patterns, particularly for low-quality experimental patterns with high noise levels and elevated backgrounds. With the Open Experimental Powder X-Ray Diffraction Database (opXRD), we provide an openly available and easily accessible dataset of labeled and unlabeled experimental powder diffractograms. Labeled opXRD data can be used to evaluate the performance of models on experimental data and unlabeled opXRD data can help improve the performance of models on experimental data, e.g. through transfer learning methods. We collected \numpatterns diffractograms, 2179 of them labeled, from a wide spectrum of materials classes. We hope this ongoing effort can guide machine learning research toward fully automated analysis of pXRD data and thus enable future self-driving materials labs.

arxiv情報

著者 Daniel Hollarek,Henrik Schopmans,Jona Östreicher,Jonas Teufel,Bin Cao,Adie Alwen,Simon Schweidler,Mriganka Singh,Tim Kodalle,Hanlin Hu,Gregoire Heymans,Maged Abdelsamie,Arthur Hardiagon,Alexander Wieczorek,Siarhei Zhuk,Ruth Schwaiger,Sebastian Siol,François-Xavier Coudert,Moritz Wolf,Carolin M. Sutter-Fella,Ben Breitung,Andrea M. Hodge,Tong-yi Zhang,Pascal Friederich
発行日 2025-03-07 16:59:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.LG | opXRD: Open Experimental Powder X-ray Diffraction Database はコメントを受け付けていません

MPTSNet: Integrating Multiscale Periodic Local Patterns and Global Dependencies for Multivariate Time Series Classification

要約

多変量時系列分類(MTSC)は、環境監視、医療EEG分析、アクション認識などの広範な実用的なアプリケーションで重要です。
通常、実際の時系列データセットは複雑なダイナミクスを示します。
この複雑さをキャプチャするために、RNNベース、CNNベース、トランスベース、およびハイブリッドモデルが提案されています。
残念ながら、現在の深い学習ベースの方法は、さまざまな時間スケールでのローカル機能とグローバル依存関係の同時構築をしばしば無視し、満足のいく分類精度を実現するのに十分な特徴抽出機能がありません。
これらの課題に対処するために、マルチスケールのローカルパターンとグローバルな相関を統合して、時系列に固有の情報を完全に活用する新しいマルチスケール周期時系列ネットワーク(MPTSNET)を提案します。
時系列の多期間と複雑な変数相関を認識して、フーリエ変換を使用して一次周期を抽出し、データをマルチスケールの周期セグメントに分解できるようにします。
CNNと注意メカニズムの固有の強みを活用して、周期ブロックを導入します。これは、ローカルパターンとグローバルな依存関係を適応的にキャプチャしながら、異なる周期スケールにわたる注意統合を通じて解釈可能性を高めます。
UEAベンチマークデータセットの実験は、提案されたMPTSNETがMTSCタスクの21の既存の高度なベースラインを上回ることを示しています。

要約(オリジナル)

Multivariate Time Series Classification (MTSC) is crucial in extensive practical applications, such as environmental monitoring, medical EEG analysis, and action recognition. Real-world time series datasets typically exhibit complex dynamics. To capture this complexity, RNN-based, CNN-based, Transformer-based, and hybrid models have been proposed. Unfortunately, current deep learning-based methods often neglect the simultaneous construction of local features and global dependencies at different time scales, lacking sufficient feature extraction capabilities to achieve satisfactory classification accuracy. To address these challenges, we propose a novel Multiscale Periodic Time Series Network (MPTSNet), which integrates multiscale local patterns and global correlations to fully exploit the inherent information in time series. Recognizing the multi-periodicity and complex variable correlations in time series, we use the Fourier transform to extract primary periods, enabling us to decompose data into multiscale periodic segments. Leveraging the inherent strengths of CNN and attention mechanism, we introduce the PeriodicBlock, which adaptively captures local patterns and global dependencies while offering enhanced interpretability through attention integration across different periodic scales. The experiments on UEA benchmark datasets demonstrate that the proposed MPTSNet outperforms 21 existing advanced baselines in the MTSC tasks.

arxiv情報

著者 Yang Mu,Muhammad Shahzad,Xiao Xiang Zhu
発行日 2025-03-07 17:07:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | MPTSNet: Integrating Multiscale Periodic Local Patterns and Global Dependencies for Multivariate Time Series Classification はコメントを受け付けていません

TRADE: Transfer of Distributions between External Conditions with Normalizing Flows

要約

外部制御パラメーターに依存するモデリング分布は、温度のようなシステム特性が分子構成に影響する分子シミュレーションなどの多様なアプリケーションで一般的なシナリオです。
これらのアプリケーションの関連性にもかかわらず、既存のソリューションは、不安定になりやすいモデルアーキテクチャやエネルギーベースのトレーニングに依存する必要があるため、不十分です。
境界値の問題として学習プロセスを策定することにより、これらの制限を克服する取引を導入します。
最初にI.I.D.〜サンプルまたは後方KLトレーニングのいずれかを使用して特定の条件のモデルをトレーニングすることにより、境界分布を確立します。
次に、外部パラメーターに対して非正規化密度の勾配を使用して、他の条件全体でこの情報を伝播します。
物理学に基づいたニューラルネットワークの原理に似たこの定式化により、制限的な仮定なしでパラメーター依存分布を効率的に学習することができます。
実験的に、貿易は、ベイジアンの推論や分子シミュレーションから物理格子モデルに至るまで、幅広いアプリケーションで優れた結果を達成することを実証します。

要約(オリジナル)

Modeling distributions that depend on external control parameters is a common scenario in diverse applications like molecular simulations, where system properties like temperature affect molecular configurations. Despite the relevance of these applications, existing solutions are unsatisfactory as they require severely restricted model architectures or rely on energy-based training, which is prone to instability. We introduce TRADE, which overcomes these limitations by formulating the learning process as a boundary value problem. By initially training the model for a specific condition using either i.i.d.~samples or backward KL training, we establish a boundary distribution. We then propagate this information across other conditions using the gradient of the unnormalized density with respect to the external parameter. This formulation, akin to the principles of physics-informed neural networks, allows us to efficiently learn parameter-dependent distributions without restrictive assumptions. Experimentally, we demonstrate that TRADE achieves excellent results in a wide range of applications, ranging from Bayesian inference and molecular simulations to physical lattice models.

arxiv情報

著者 Stefan Wahl,Armand Rousselot,Felix Draxler,Henrik Schopmans,Ullrich Köthe
発行日 2025-03-07 17:08:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | TRADE: Transfer of Distributions between External Conditions with Normalizing Flows はコメントを受け付けていません

From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing

要約

この焦点のレビューでは、パラメトリックな部分微分方程式(PDE)の溶液を近似するためのさまざまなニューラル演算子アーキテクチャを調査し、高レベルの概念と実用的な実装戦略を強調します。
この研究では、ディープオペレーターネットワーク(DeepONET)、主成分分析ベースのニューラルネットワーク(PCANET)、およびフーリエ神経演算子(FNO)などの基礎モデルを対象としており、コアの方法論とパフォーマンスに関する比較洞察を提供します。
これらのアーキテクチャは、ポアソン方程式と線形弾性変形という2つの古典的な線形パラメトリックPDEで実証されています。
前方の問題解決を超えて、このレビューは、ベイジアン推論の問題の代理として神経演算子を適用することを掘り下げ、精度を維持しながら後方推論を加速する有効性を示しています。
この論文は、特に予測の精度と一般化の制御において、現在の課題について議論することで締めくくります。
残留ベースのエラー補正やマルチレベルトレーニングなど、これらの問題に対処するための新たな戦略の概要を説明します。
このレビューは、神経オペレーターを実装し、それらを科学的コンピューティングワークフローに統合するための包括的なガイドと見なすことができます。

要約(オリジナル)

This focused review explores a range of neural operator architectures for approximating solutions to parametric partial differential equations (PDEs), emphasizing high-level concepts and practical implementation strategies. The study covers foundational models such as Deep Operator Networks (DeepONet), Principal Component Analysis-based Neural Networks (PCANet), and Fourier Neural Operators (FNO), providing comparative insights into their core methodologies and performance. These architectures are demonstrated on two classical linear parametric PDEs: the Poisson equation and linear elastic deformation. Beyond forward problem-solving, the review delves into applying neural operators as surrogates in Bayesian inference problems, showcasing their effectiveness in accelerating posterior inference while maintaining accuracy. The paper concludes by discussing current challenges, particularly in controlling prediction accuracy and generalization. It outlines emerging strategies to address these issues, such as residual-based error correction and multi-level training. This review can be seen as a comprehensive guide to implementing neural operators and integrating them into scientific computing workflows.

arxiv情報

著者 Prashant K. Jha
発行日 2025-03-07 17:25:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62M45, 68T07, cs.CE, cs.LG | From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing はコメントを受け付けていません