要約
科学機械学習の成長分野において、インコンテキスト演算子学習は、重み更新を行わずに推論段階でプロンプトデータから演算子を学習する際に顕著な可能性を示しています。
しかし、現在のモデルはセンサーデータに過度に依存しているため、オペレーターに対する人間の貴重な洞察をうっかり見落としてしまう可能性があります。
これに対処するために、コンテキスト内のオペレーター学習をマルチモーダル パラダイムに変換する方法を提案します。
私たちは、自然言語の説明と方程式を通じて表現される、オペレーターに関する人間の知識を統合するために「キャプション」の使用を提案します。
この方法が物理情報に基づく学習の柔軟性と汎用性を広げるだけでなく、学習パフォーマンスを大幅に向上させ、データの必要性を軽減する方法を説明します。
さらに、言語モデルのようなアーキテクチャに基づいた、「ICON-LM」と呼ばれる、マルチモーダルのコンテキスト内オペレータ学習のためのより効率的なニューラル ネットワーク アーキテクチャを導入します。
私たちは、言語モデルの適用のための新しい道を生み出す、科学的機械学習タスクに対する「ICON-LM」の実行可能性を実証します。
要約(オリジナル)
In the growing domain of scientific machine learning, in-context operator learning has demonstrated notable potential in learning operators from prompted data during inference stage without weight updates. However, the current model’s overdependence on sensor data, may inadvertently overlook the invaluable human insight into the operator. To address this, we present a transformation of in-context operator learning into a multi-modal paradigm. We propose the use of ‘captions’ to integrate human knowledge about the operator, expressed through natural language descriptions and equations. We illustrate how this method not only broadens the flexibility and generality of physics-informed learning, but also significantly boosts learning performance and reduces data needs. Furthermore, we introduce a more efficient neural network architecture for multi-modal in-context operator learning, referred to as ‘ICON-LM’, based on a language-model-like architecture. We demonstrate the viability of ‘ICON-LM’ for scientific machine learning tasks, which creates a new path for the application of language models.
arxiv情報
著者 | Liu Yang,Tingwei Meng,Siting Liu,Stanley J. Osher |
発行日 | 2023-08-09 16:44:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google