要約
ハイパーパラメータ検索は計算コストが高くなります。
このペーパーでは、ハイパーパラメータの一般的な選択と、特にオペレーターの学習のためのトレーニング方法について検討します。
堅牢な傾向を見つけるために、いくつかの微分方程式のアーキテクチャ DeepONets、フーリエ ニューラル演算子、および Koopman オートエンコーダーを考慮します。
考慮されるオプションには、活性化関数、ドロップアウト、確率的重み平均などがあります。
要約(オリジナル)
Hyperparameters searches are computationally expensive. This paper studies some general choices of hyperparameters and training methods specifically for operator learning. It considers the architectures DeepONets, Fourier neural operators and Koopman autoencoders for several differential equations to find robust trends. Some options considered are activation functions, dropout and stochastic weight averaging.
arxiv情報
著者 | Dustin Enyeart,Guang Lin |
発行日 | 2024-12-09 17:28:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google