要約
この論文は、将来の情報にアクセスすることなく、オンラインで「時間の経過とともに」、つまりおそらく無限のデータ ストリームからニューラル ネットワークを使用して学習するための新しい統合フレームワークであるハミルトニアン学習を提案します。
既存の研究は、ストリームが既知の有限長であるか、より小さなシーケンスにセグメント化され、統計的機械学習から確立された学習戦略を活用する単純化された設定に焦点を当てています。
この論文では、最適制御理論のツールを活用して、時間の経過に伴う学習の問題をゼロから再考し、ニューラル計算と学習の時間的ダイナミクスの統一的な見解を生み出します。
ハミルトニアン学習は、次の微分方程式に基づいています。(i) 外部ソフトウェア ソルバーを必要とせずに統合できます。
(ii) フィードフォワードおよびリカレント ネットワークにおける勾配ベースの学習の確立された概念を一般化する。
(iii) 新しい視点に対してオープンであること。
提案されたフレームワークは、勾配ベースの学習を回復する方法を実験的に証明し、すぐに使用できるオプティマイザーと比較し、完全にローカルな計算スキームから部分的/非ローカルな計算スキームに切り替えるのに十分な柔軟性があることを説明することによって紹介されます。
複数のデバイスに分散される可能性があり、アクティベーションを保存せずに BackPropagation を行うこともできます。
ハミルトニアン学習は実装が簡単で、研究者が長期にわたる学習の問題に原則的かつ革新的な方法でアプローチするのに役立ちます。
要約(オリジナル)
This paper proposes Hamiltonian Learning, a novel unified framework for learning with neural networks ‘over time’, i.e., from a possibly infinite stream of data, in an online manner, without having access to future information. Existing works focus on the simplified setting in which the stream has a known finite length or is segmented into smaller sequences, leveraging well-established learning strategies from statistical machine learning. In this paper, the problem of learning over time is rethought from scratch, leveraging tools from optimal control theory, which yield a unifying view of the temporal dynamics of neural computations and learning. Hamiltonian Learning is based on differential equations that: (i) can be integrated without the need of external software solvers; (ii) generalize the well-established notion of gradient-based learning in feed-forward and recurrent networks; (iii) open to novel perspectives. The proposed framework is showcased by experimentally proving how it can recover gradient-based learning, comparing it to out-of-the box optimizers, and describing how it is flexible enough to switch from fully-local to partially/non-local computational schemes, possibly distributed over multiple devices, and BackPropagation without storing activations. Hamiltonian Learning is easy to implement and can help researches approach in a principled and innovative manner the problem of learning over time.
arxiv情報
著者 | Stefano Melacci,Alessandro Betti,Michele Casoni,Tommaso Guidi,Matteo Tiezzi,Marco Gori |
発行日 | 2024-09-18 14:57:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google