Multi-unit soft sensing permits few-shot learning

要約

最近の文献では、伝達性のある学習アルゴリズムを使用してソフト センサーを改善するさまざまな方法が検討されています。
大まかに言うと、ソフト センサーのパフォーマンスは、複数のタスクを解決することで学習すると強化される可能性があります。
転移可能性の有用性は、考案された学習タスクがどの程度強く関連しているかによって決まります。
移転可能性に特に関連するケースは、多くの実現が行われるプロセス用にソフト センサーを開発する場合です。
データを利用できる多くの実装を備えたシステムまたはデバイス。
そして、それぞれの実現にはソフト センサーの学習タスクが提示され、さまざまなタスクが強く関連していると予想するのが合理的です。
この設定で伝達可能性を適用すると、いわゆるマルチユニット ソフト センシングが実現します。このソフト センサーでは、実現されたすべてのデータから学習してプロセスをモデル化します。
この論文では、階層モデルとして定式化され、ディープ ニューラル ネットワークを使用して実装されたマルチユニット ソフト センサーの学習能力を調査します。
特に、ユニット数が増加するにつれてソフトセンサーがどの程度一般化するかを調査します。
大規模な産業用データセットを使用して、ソフト センサーが十分な数のタスクから学習されると、新しいユニットからのデータを数ショットで学習できることを実証しました。
驚くべきことに、タスクの難易度に関しては、1 ~ 3 個のデータ ポイントでの少数ショット学習が、新しいユニットでの高いパフォーマンスにつながることがよくあります。

要約(オリジナル)

Recent literature has explored various ways to improve soft sensors using learning algorithms with transferability. Broadly put, the performance of a soft sensor may be strengthened when it is learned by solving multiple tasks. The usefulness of transferability depends on how strongly related the devised learning tasks are. A particularly relevant case for transferability, is when a soft sensor is to be developed for a process of which there are many realizations, e.g. system or device with many implementations from which data is available. Then, each realization presents a soft sensor learning task, and it is reasonable to expect that the different tasks are strongly related. Applying transferability in this setting leads to what we call multi-unit soft sensing, where a soft sensor models a process by learning from data from all of its realizations. This paper explores the learning abilities of a multi-unit soft sensor, which is formulated as a hierarchical model and implemented using a deep neural network. In particular, we investigate how well the soft sensor generalizes as the number of units increase. Using a large industrial dataset, we demonstrate that, when the soft sensor is learned from a sufficient number of tasks, it permits few-shot learning on data from new units. Surprisingly, regarding the difficulty of the task, few-shot learning on 1-3 data points often leads to a high performance on new units.

arxiv情報

著者 Bjarne Grimstad,Kristian Løvland,Lars S. Imsland
発行日 2023-09-27 17:50:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク