要約
タイトル:ストリーム効率的学習
要約:多くの現実世界の場面では、データは時間の経過とともに蓄積されていきます。従来の機械学習研究が、与えられたトレーニングデータセットから学習に焦点を当てるのに対し、ストリームからの学習は、到着するデータストリームが無限大である可能性があることを無視できず、十分な計算/ストレージリソースを持っていると仮定することは実用的ではありません。したがって、データストリームからの学習における汎化パフォーマンスは、受信されたデータの数だけでなく、リソースと迅速性の問題でもうまく活用できるデータの数にも依存します。このため、この記事では、機械学習スループットの概念を紹介し、ストリーム効率的学習を定義し、仮説の理論的枠組みを提示します。
要点:
– データストリームからの学習は、無限大になりうるストリームでの学習
– すべてのデータを処理するための計算/ストレージリソースがあると仮定することは実用的ではない
– 学習アルゴリズムの能力と問題の複雑さに加えて、リソースと迅速性の問題でもうまく活用できるデータの数が学習の汎化能力に影響を与える
– 機械学習スループットの概念を紹介し、ストリーム効率的学習を定義し、理論的枠組みを提示することで、リソースと迅速性の問題を解決することを目指す
要約(オリジナル)
Data in many real-world applications are often accumulated over time, like a stream. In contrast to conventional machine learning studies that focus on learning from a given training data set, learning from data streams cannot ignore the fact that the incoming data stream can be potentially endless with overwhelming size and unknown changes, and it is impractical to assume to have sufficient computational/storage resource such that all received data can be handled in time. Thus, the generalization performance of learning from data streams depends not only on how many data have been received, but also on how many data can be well exploited timely, with resource and rapidity concerns, in addition to the ability of learning algorithm and complexity of the problem. For this purpose, in this article we introduce the notion of machine learning throughput, define Stream Efficient Learning and present a preliminary theoretical framework.
arxiv情報
著者 | Zhi-Hua Zhou |
発行日 | 2023-05-03 15:54:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI