Towards Physically Consistent Deep Learning For Climate Model Parameterizations

要約

気候モデルは、気候変動の理解と予測において重要な役割を果たします。
その複雑さのため、約 40 ~ 100 km の水平解像度は、雲や対流などのプロセスを解決するには粗すぎるままであり、パラメータ化によって近似する必要があります。
これらのパラメータ化は、気候予測における系統的誤差と大きな不確実性の主な原因となります。
ディープラーニング(DL)ベースのパラメータ化は、計算コストの高い短時間の高解像度シミュレーションのデータに基づいてトレーニングされ、この点で気候モデルの改善に大きな期待が寄せられています。
しかし、解釈可能性の欠如と偽の非物理的相関を学習する傾向により、気候シミュレーションの信頼性が低下します。
我々は、標準的な教師ありトレーニングと比較して、解釈可能性が向上し、計算オーバーヘッドが無視できる物理的に一貫したモデルをもたらす、DL ベースのパラメータ化のための効率的な教師あり学習フレームワークを提案します。
まず、ターゲットの物理プロセスを決定する主要な特徴が明らかになります。
その後、関連する機能のみを使用してニューラル ネットワークが微調整されます。
私たちは、この方法が入力の小さなサブセットを実際の物理ドライバーとして確実に識別し、したがって偽の非物理的関係を除去することを経験的に示しています。
これにより、設計により、制約のないブラックボックス DL ベースのパラメーター化の予測パフォーマンスを維持しながら、物理的に一貫した解釈可能なニューラル ネットワークが得られます。

要約(オリジナル)

Climate models play a critical role in understanding and projecting climate change. Due to their complexity, their horizontal resolution of about 40-100 km remains too coarse to resolve processes such as clouds and convection, which need to be approximated via parameterizations. These parameterizations are a major source of systematic errors and large uncertainties in climate projections. Deep learning (DL)-based parameterizations, trained on data from computationally expensive short, high-resolution simulations, have shown great promise for improving climate models in that regard. However, their lack of interpretability and tendency to learn spurious non-physical correlations result in reduced trust in the climate simulation. We propose an efficient supervised learning framework for DL-based parameterizations that leads to physically consistent models with improved interpretability and negligible computational overhead compared to standard supervised training. First, key features determining the target physical processes are uncovered. Subsequently, the neural network is fine-tuned using only those relevant features. We show empirically that our method robustly identifies a small subset of the inputs as actual physical drivers, therefore, removing spurious non-physical relationships. This results in by design physically consistent and interpretable neural networks while maintaining the predictive performance of unconstrained black-box DL-based parameterizations.

arxiv情報

著者 Birgit Kühbacher,Fernando Iglesias-Suarez,Niki Kilbertus,Veronika Eyring
発行日 2024-08-01 07:29:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.ao-ph パーマリンク