Tracking Changing Probabilities via Dynamic Learners

要約

入力が離散アイテムのストリームである予測子、つまり学習者を考えてみましょう。
予測子のタスクは、あらゆる時点で、確率的マルチクラス予測です。つまり、0 個以上の候補アイテムをそれぞれ確率で出力することによって、次にどのアイテムが発生するかを予測します。その後、実際のアイテムが明らかになり、予測器はこの観察から学習します。

確率を出力するために、予測器は見た項目の割合を追跡します。
予測子には一定の (限られた) スペースがあり、効率的な予測と更新の手法を模索します。ストリームには制限がなく、項目のセットは予測子にとって未知であり、その合計も無制限に増加する可能性があります。
さらに、非定常性が存在します。アイテムの基礎となる周波数は、時々大幅に変化する可能性があります。
たとえば、新しいアイテムが表示され始めたり、現在頻繁に使用されているいくつかのアイテムが再び表示されなくなる場合があります。
予測子は空間に制限されているため、(現時点で) 十分に高い頻度を持つ項目、つまり顕著な項目の確率を提供するだけで済みます。
この問題は、概念が予測子と予測子の両方として機能する自己教師あり学習方式である予測ゲームの設定で動機付けられ、時間の経過とともに概念セットが増加し、新しい概念が生成され使用されるにつれて非定常性が生じます。
私たちは、このような非定常性にタイムリーに対応するように設計された移動平均手法を開発し、その特性を調査します。
1 つはカウント スナップショットのキューイングに基づく単純な手法で、もう 1 つはキューイングとスパース EMA の拡張バージョンの組み合わせです。
後者の組み合わせは、予測と固有の動的学習率をサポートします。
この柔軟性により、より正確かつタイムリーな収束が可能になることがわかりました。

要約(オリジナル)

Consider a predictor, a learner, whose input is a stream of discrete items. The predictor’s task, at every time point, is probabilistic multiclass prediction, i.e., to predict which item may occur next by outputting zero or more candidate items, each with a probability, after which the actual item is revealed and the predictor learns from this observation. To output probabilities, the predictor keeps track of the proportions of the items it has seen. The predictor has constant (limited) space and we seek efficient prediction and update techniques: The stream is unbounded, the set of items is unknown to the predictor and their totality can also grow unbounded. Moreover, there is non-stationarity: the underlying frequencies of items may change, substantially, from time to time. For instance, new items may start appearing and a few currently frequent items may cease to occur again. The predictor, being space-bounded, need only provide probabilities for those items with (currently) sufficiently high frequency, i.e., the salient items. This problem is motivated in the setting of prediction games, a self-supervised learning regime where concepts serve as both the predictors and the predictands, and the set of concepts grows over time, resulting in non-stationarities as new concepts are generated and used. We develop moving average techniques designed to respond to such non-stationarities in a timely manner, and explore their properties. One is a simple technique based on queuing of count snapshots, and another is a combination of queuing together with an extended version of sparse EMA. The latter combination supports predictand-specific dynamic learning rates. We find that this flexibility allows for a more accurate and timely convergence.

arxiv情報

著者 Omid Madani
発行日 2024-02-15 17:48:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, cs.AI, cs.LG, I.2.6 パーマリンク