Single-Timescale Multi-Sequence Stochastic Approximation Without Fixed Point Smoothness: Theories and Applications

要約

複数の結合シーケンスを含む確率的近似 (SA) は、マルチシーケンス SA (MSSA) として知られ、信号処理と機械学習の分野でさまざまな用途に使用されます。
ただし、MSSA の既存の理論的理解には限界があります。マルチタイムスケール解析は収束速度が遅いことを意味しますが、単一タイムスケール解析は厳格な固定点の滑らかさの仮定に依存しています。
この論文では、固定点の滑らかさを仮定せずに、MSSA のより厳密な単一タイムスケール分析を確立します。
私たちの理論的発見は、関係するすべての演算子が非常に単調である場合、MSSA は $\tilde{\mathcal{O}}(K^{-1})$ の速度で収束することを明らかにしています。ここで、$K$ は反復の総数を示します

さらに、主要な演算子を除いて、関係するすべての演算子が単調性が高い場合、MSSA は $\mathcal{O}(K^{-\frac{1}{2}})$ の速度で収束します。
これらの理論的発見は、単一配列 SA について確立された理論的発見と一致しています。
これらの理論的発見をバイレベル最適化と通信効率の高い分散学習に適用すると、数値実験で検証されたように、緩和された仮定やパフォーマンスが保証されたより単純なアルゴリズムが提供されます。

要約(オリジナル)

Stochastic approximation (SA) that involves multiple coupled sequences, known as multiple-sequence SA (MSSA), finds diverse applications in the fields of signal processing and machine learning. However, existing theoretical understandings {of} MSSA are limited: the multi-timescale analysis implies a slow convergence rate, whereas the single-timescale analysis relies on a stringent fixed point smoothness assumption. This paper establishes tighter single-timescale analysis for MSSA, without assuming smoothness of the fixed points. Our theoretical findings reveal that, when all involved operators are strongly monotone, MSSA converges at a rate of $\tilde{\mathcal{O}}(K^{-1})$, where $K$ denotes the total number of iterations. In addition, when all involved operators are strongly monotone except for the main one, MSSA converges at a rate of $\mathcal{O}(K^{-\frac{1}{2}})$. These theoretical findings align with those established for single-sequence SA. Applying these theoretical findings to bilevel optimization and communication-efficient distributed learning offers relaxed assumptions and/or simpler algorithms with performance guarantees, as validated by numerical experiments.

arxiv情報

著者 Yue Huang,Zhaoxian Wu,Shiqian Ma,Qing Ling
発行日 2024-10-17 16:39:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Single-Timescale Multi-Sequence Stochastic Approximation Without Fixed Point Smoothness: Theories and Applications はコメントを受け付けていません

Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers

要約

ノイズ除去拡散モデルは、ノイズを意味のあるデータに変換できる強力な生成技術として最近登場しました。
ターゲット分布がトレーニング分布と一致する場合、拡散モデルの理論的な収束保証は十分に確立されますが、実際のシナリオでは不一致が生じることがよくあります。
一般的なケースの 1 つは、ゼロショット条件付き拡散サンプリングです。この場合、ターゲットの条件付き分布は (無条件の) トレーニング分布とは異なります。
これらのスコア不一致の拡散モデルは、理論的な観点からはほとんど解明されていません。
この論文では、有限二次モーメントを持つターゲット分布に焦点を当て、一般的なスコア不一致拡散サンプラーに対する明示的な次元依存性を備えた最初のパフォーマンス保証を示します。
スコアの不一致により、ターゲット分布とサンプリング分布の間に漸近的な分布バイアスが生じ、ターゲット分布とトレーニング分布の間の累積不一致に比例することがわかります。
この結果は、測定ノイズに関係なく、任意の条件付きモデルのゼロショット条件付きサンプラーに直接適用できます。
興味深いことに、導出された収束上限は、漸近バイアスを最小限に抑える線形条件付きモデルにおける新しいバイアス最適ゼロショット サンプラーを設計するための有用なガイダンスを提供します。
このようなバイアス最適サンプラーについては、次元と条件付けに対する明示的な依存関係を使用して収束保証をさらに確立し、有界サポートやガウス混合を含むいくつかの興味深いターゲット分布に適用します。
私たちの発見は数値研究によって裏付けられています。

要約(オリジナル)

The denoising diffusion model has recently emerged as a powerful generative technique, capable of transforming noise into meaningful data. While theoretical convergence guarantees for diffusion models are well established when the target distribution aligns with the training distribution, practical scenarios often present mismatches. One common case is in zero-shot conditional diffusion sampling, where the target conditional distribution is different from the (unconditional) training distribution. These score-mismatched diffusion models remain largely unexplored from a theoretical perspective. In this paper, we present the first performance guarantee with explicit dimensional dependencies for general score-mismatched diffusion samplers, focusing on target distributions with finite second moments. We show that score mismatches result in an asymptotic distributional bias between the target and sampling distributions, proportional to the accumulated mismatch between the target and training distributions. This result can be directly applied to zero-shot conditional samplers for any conditional model, irrespective of measurement noise. Interestingly, the derived convergence upper bound offers useful guidance for designing a novel bias-optimal zero-shot sampler in linear conditional models that minimizes the asymptotic bias. For such bias-optimal samplers, we further establish convergence guarantees with explicit dependencies on dimension and conditioning, applied to several interesting target distributions, including those with bounded support and Gaussian mixtures. Our findings are supported by numerical studies.

arxiv情報

著者 Yuchen Liang,Peizhong Ju,Yingbin Liang,Ness Shroff
発行日 2024-10-17 16:42:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers はコメントを受け付けていません

GPTreeO: An R package for continual regression with dividing local Gaussian processes

要約

特に継続学習問題に合わせた、スケーラブルなガウス過程 (GP) 回帰用の柔軟な R パッケージである GPTreeO を紹介します。
GPTreeO は、ローカル GP リグレッサーのバイナリ ツリーが入力データの連続ストリームを使用して動的に構築される分割ローカル ガウス プロセス (DLGP) アルゴリズムに基づいて構築されています。
GPTreeO では、GP ハイパーパラメータの継続的な最適化を可能にし、不確実性キャリブレーションを組み込み、ローカル パーティションの作成方法に関する新しい戦略を導入することにより、元の DLGP アルゴリズムを拡張します。
さらに、モジュール型コード構造により、ユーザーはお気に入りの GP ライブラリをインターフェイスして、GPTreeO でローカル GP 回帰を実行できます。
GPTreeO の柔軟性により、ユーザーは計算速度、精度、安定性、滑らかさの間のバランスをきめ細かく制御できます。
GPTreeO の構成可能な機能が継続学習設定における回帰パフォーマンスにどのような影響を与えるかを示すために感度分析を実施します。

要約(オリジナル)

We introduce GPTreeO, a flexible R package for scalable Gaussian process (GP) regression, particularly tailored to continual learning problems. GPTreeO builds upon the Dividing Local Gaussian Processes (DLGP) algorithm, in which a binary tree of local GP regressors is dynamically constructed using a continual stream of input data. In GPTreeO we extend the original DLGP algorithm by allowing continual optimisation of the GP hyperparameters, incorporating uncertainty calibration, and introducing new strategies for how the local partitions are created. Moreover, the modular code structure allows users to interface their favourite GP library to perform the local GP regression in GPTreeO. The flexibility of GPTreeO gives the user fine-grained control of the balance between computational speed, accuracy, stability and smoothness. We conduct a sensitivity analysis to show how GPTreeO’s configurable features impact the regression performance in a continual learning setting.

arxiv情報

著者 Timo Braun,Anders Kvellestad,Riccardo De Bin
発行日 2024-10-17 16:45:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.CO | GPTreeO: An R package for continual regression with dividing local Gaussian processes はコメントを受け付けていません

Supervised Kernel Thinning

要約

Dwivedi & Mackey (2024) のカーネル間引きアルゴリズムは、i.i.d より優れたものを提供します。
一般的な点のセットの圧縮。
KT は、入力ポイントよりも大幅に小さいサイズの忠実度の高いコアセットを生成することで、統計精度の損失を最小限に抑えながら、モンテカルロ積分、不確実性の定量化、ノンパラメトリック仮説検定などの教師なしタスクを高速化することが知られています。
この研究では、KT アルゴリズムを一般化して、カーネル法を含む教師あり学習問題を高速化します。
具体的には、Nadaraya-Watson (NW) 回帰またはカーネル スムージング、およびカーネル リッジ回帰 (KRR) という 2 つの古典的なアルゴリズムを KT と組み合わせて、トレーニング時間と推論時間の両方で 2 次の高速化を実現します。
各設定における KT による分散圧縮が適切なカーネルの構築にどのように還元されるかを示し、カーネル間分割 NW 推定器とカーネル間分割 KRR 推定器を紹介します。
KT ベースの回帰推定量は、フルデータ推定量よりも大幅に優れた計算効率を享受し、i.i.d. よりも統計効率が向上していることを証明します。
トレーニングデータのサブサンプリング。
途中で、KT を使用した圧縮に対する新しい乗法誤差保証も提供します。
シミュレーションと実際のデータ実験の両方を使用して、設計の選択を検証します。

要約(オリジナル)

The kernel thinning algorithm of Dwivedi & Mackey (2024) provides a better-than-i.i.d. compression of a generic set of points. By generating high-fidelity coresets of size significantly smaller than the input points, KT is known to speed up unsupervised tasks like Monte Carlo integration, uncertainty quantification, and non-parametric hypothesis testing, with minimal loss in statistical accuracy. In this work, we generalize the KT algorithm to speed up supervised learning problems involving kernel methods. Specifically, we combine two classical algorithms–Nadaraya-Watson (NW) regression or kernel smoothing, and kernel ridge regression (KRR)–with KT to provide a quadratic speed-up in both training and inference times. We show how distribution compression with KT in each setting reduces to constructing an appropriate kernel, and introduce the Kernel-Thinned NW and Kernel-Thinned KRR estimators. We prove that KT-based regression estimators enjoy significantly superior computational efficiency over the full-data estimators and improved statistical efficiency over i.i.d. subsampling of the training data. En route, we also provide a novel multiplicative error guarantee for compressing with KT. We validate our design choices with both simulations and real data experiments.

arxiv情報

著者 Albert Gong,Kyuseong Choi,Raaz Dwivedi
発行日 2024-10-17 16:48:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Supervised Kernel Thinning はコメントを受け付けていません

GDeR: Safeguarding Efficiency, Balancing, and Robustness via Prototypical Graph Pruning

要約

高品質のディープ モデルをトレーニングするには膨大な量のデータが必要となり、その結果、膨大な計算量とメモリの需要が発生します。
最近、データの枝刈り、蒸留、およびコアセットの選択が開発され、完全なセットから小さいながらも有益なサブセットを保持、合成、または選択することでデータ量を合理化しています。
これらの方法の中で、データ プルーニングは追加のトレーニング コストが最も少なく、最も実用的な高速化のメリットが得られます。
ただし、これは最も脆弱であり、不均衡または偏ったデータ スキーマにより大幅なパフォーマンス低下が発生することが多いため、デバイス上での展開における精度と信頼性について懸念が生じます。
したがって、バランスと堅牢性を確保しながら、以前の実践の効率を維持する、新しいデータ プルーニング パラダイムの必要性が差し迫っています。
これらの問題に対処するために成熟したソリューションが開発されているコンピューター ビジョンや自然言語処理の分野とは異なり、グラフ ニューラル ネットワーク (GNN) は、統合されたデータセット プルーニング ソリューションが不足しており、ますます大規模になり、不均衡でノイズの多いデータセットに引き続き苦戦しています。
これを達成するために、トレーニング可能なプロトタイプを使用してプロセス中にトレーニング「バスケット」を更新するように設計された、新しい動的ソフト枝刈り手法である GDeR を導入します。
GDeR はまず、超球を埋め込む適切にモデル化されたグラフを構築し、次にこの埋め込み空間から \textit{代表的でバランスの取れた不偏サブセット} をサンプリングします。これにより、グラフ トレーニング デバッグと呼ばれる目標が達成されます。
3 つの GNN バックボーンにわたる 5 つのデータセットに対する広範な実験により、GDeR (I) が 30% ~ 50% 少ないトレーニング サンプルで完全なデータセットのパフォーマンスを達成または上回ること、(II) が最大 2.81 倍のロスレス トレーニング速度向上を達成することが実証されました。
III) は、不均衡なトレーニングおよびノイズの多いトレーニング シナリオにおいて、最先端の枝刈り手法よりもそれぞれ 0.3% ~ 4.3% および 3.6% ~ 7.8% 優れています。

要約(オリジナル)

Training high-quality deep models necessitates vast amounts of data, resulting in overwhelming computational and memory demands. Recently, data pruning, distillation, and coreset selection have been developed to streamline data volume by retaining, synthesizing, or selecting a small yet informative subset from the full set. Among these methods, data pruning incurs the least additional training cost and offers the most practical acceleration benefits. However, it is the most vulnerable, often suffering significant performance degradation with imbalanced or biased data schema, thus raising concerns about its accuracy and reliability in on-device deployment. Therefore, there is a looming need for a new data pruning paradigm that maintains the efficiency of previous practices while ensuring balance and robustness. Unlike the fields of computer vision and natural language processing, where mature solutions have been developed to address these issues, graph neural networks (GNNs) continue to struggle with increasingly large-scale, imbalanced, and noisy datasets, lacking a unified dataset pruning solution. To achieve this, we introduce a novel dynamic soft-pruning method, GDeR, designed to update the training “basket” during the process using trainable prototypes. GDeR first constructs a well-modeled graph embedding hypersphere and then samples \textit{representative, balanced, and unbiased subsets} from this embedding space, which achieves the goal we called Graph Training Debugging. Extensive experiments on five datasets across three GNN backbones, demonstrate that GDeR (I) achieves or surpasses the performance of the full dataset with 30%~50% fewer training samples, (II) attains up to a 2.81x lossless training speedup, and (III) outperforms state-of-the-art pruning methods in imbalanced training and noisy training scenarios by 0.3%~4.3% and 3.6%~7.8%, respectively.

arxiv情報

著者 Guibin Zhang,Haonan Dong,Yuchen Zhang,Zhixun Li,Dingshuo Chen,Kai Wang,Tianlong Chen,Yuxuan Liang,Dawei Cheng,Kun Wang
発行日 2024-10-17 16:56:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | GDeR: Safeguarding Efficiency, Balancing, and Robustness via Prototypical Graph Pruning はコメントを受け付けていません

Stage-Aware Learning for Dynamic Treatments

要約

動的治療計画 (DTR) の最近の進歩により、個人の特定のニーズに合わせて調整され、期待される臨床上の利点を最大化できる最適な治療の探索が容易になりました。
しかし、逆確率重み付け推定器 (IPWE) などの一貫した軌道に依存する既存のアルゴリズムは、特に慢性疾患の状況において、最適な治療下でのサンプルサイズが不十分であったり、意思決定段階が増えたりするという問題に悩まされる可能性があります。
これらの課題に対処するために、我々は、観察された治療軌道と、意思決定段階全体にわたる最適なレジームによって得られた軌道との間の整合を優先することに焦点を当てて、DTRを推定する新しい個別学習方法を提案します。
観察された軌跡が最適な処理と完全に一致していなければならないという制限を緩和することにより、私たちのアプローチは、IPWE ベースのメソッドのサンプル効率と安定性を大幅に向上させます。
特に、提案された学習スキームは、私たちの特別なケースとして人気のある結果加重学習フレームワークを含む、より一般的なフレームワークを構築します。
さらに、決定段階間の異質性を明示的に説明するための注意メカニズムとともに段階重要度スコアの概念を導入します。
フィッシャーの一貫性や有限サンプルの性能限界など、提案されたアプローチの理論的特性を確立します。
経験的に、広範なシミュレート環境と新型コロナウイルス感染症パンデミックの実際のケーススタディで提案された方法を評価します。

要約(オリジナル)

Recent advances in dynamic treatment regimes (DTRs) facilitate the search for optimal treatments, which are tailored to individuals’ specific needs and able to maximize their expected clinical benefits. However, existing algorithms relying on consistent trajectories, such as inverse probability weighting estimators (IPWEs), could suffer from insufficient sample size under optimal treatments and a growing number of decision-making stages, particularly in the context of chronic diseases. To address these challenges, we propose a novel individualized learning method which estimates the DTR with a focus on prioritizing alignment between the observed treatment trajectory and the one obtained by the optimal regime across decision stages. By relaxing the restriction that the observed trajectory must be fully aligned with the optimal treatments, our approach substantially improves the sample efficiency and stability of IPWE-based methods. In particular, the proposed learning scheme builds a more general framework which includes the popular outcome weighted learning framework as a special case of ours. Moreover, we introduce the notion of stage importance scores along with an attention mechanism to explicitly account for heterogeneity among decision stages. We establish the theoretical properties of the proposed approach, including the Fisher consistency and finite-sample performance bound. Empirically, we evaluate the proposed method in extensive simulated environments and a real case study for the COVID-19 pandemic.

arxiv情報

著者 Hanwen Ye,Wenzhuo Zhou,Ruoqing Zhu,Annie Qu
発行日 2024-10-17 16:59:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Stage-Aware Learning for Dynamic Treatments はコメントを受け付けていません

Guided Multi-objective Generative AI to Enhance Structure-based Drug Design

要約

生成 AI は創薬に革命を起こす可能性を秘めています。
しかし、ディープラーニングの最近の進歩にも関わらず、既存のモデルでは、必要な物理化学的特性をすべて満たす分子を生成することはできません。
ここでは、構造ベースの医薬品設計のための拡散と多目的最適化を組み合わせた生成化学 AI である IDOLpro について説明します。
微分可能なスコアリング関数は、拡散モデルの潜在変数をガイドして未知の化学空間を探索し、新しいリガンドをコンピュータで生成し、複数のターゲットの物理化学的特性を最適化します。
2 つのベンチマーク セットで最適化された結合親和性と合成アクセス性を備えたリガンドを生成することで、プラットフォームの有効性を実証します。
IDOLpro は、各テスト セットで次に優れた最先端の方法よりも 10% ~ 20% 以上優れた結合親和性を持つリガンドを生成し、他の方法よりも一般に優れた合成アクセシビリティ スコアを備えたより多くの薬物様分子を生成します。
IDOLpro と薬物様分子の大規模データベースの古典的な仮想画面を直接比較します。
IDOLpro は、仮想スクリーンで見つかったどの分子よりも優れた結合親和性と合成アクセス性を備え、さまざまな重要な疾患関連標的の分子を生成できると同時に、100 倍以上高速で実行コストも低いことを示します。
実験用複合体のテストセットにおいて、IDOLpro は実験的に観察されたリガンドよりも優れた結合親和性を持つ分子を初めて生成しました。
IDOLpro は、他のスコアリング機能 (ADME-Tox など) に対応して、創薬のヒット検索、ヒットからリード、リードの最適化を加速します。

要約(オリジナル)

Generative AI has the potential to revolutionize drug discovery. Yet, despite recent advances in deep learning, existing models cannot generate molecules that satisfy all desired physicochemical properties. Herein, we describe IDOLpro, a generative chemistry AI combining diffusion with multi-objective optimization for structure-based drug design. Differentiable scoring functions guide the latent variables of the diffusion model to explore uncharted chemical space and generate novel ligands in silico, optimizing a plurality of target physicochemical properties. We demonstrate our platform’s effectiveness by generating ligands with optimized binding affinity and synthetic accessibility on two benchmark sets. IDOLpro produces ligands with binding affinities over 10%-20% better than the next best state-of-the-art method on each test set, producing more drug-like molecules with generally better synthetic accessibility scores than other methods. We do a head-to-head comparison of IDOLpro against a classic virtual screen of a large database of drug-like molecules. We show that IDOLpro can generate molecules for a range of important disease-related targets with better binding affinity and synthetic accessibility than any molecule found in the virtual screen while being over 100x faster and less expensive to run. On a test set of experimental complexes, IDOLpro is the first to produce molecules with better binding affinities than experimentally observed ligands. IDOLpro can accommodate other scoring functions (e.g. ADME-Tox) to accelerate hit-finding, hit-to-lead, and lead optimization for drug discovery.

arxiv情報

著者 Amit Kadan,Kevin Ryczko,Erika Lloyd,Adrian Roitberg,Takeshi Yamazaki
発行日 2024-10-17 17:00:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.chem-ph, q-bio.BM | Guided Multi-objective Generative AI to Enhance Structure-based Drug Design はコメントを受け付けていません

Probing the Latent Hierarchical Structure of Data via Diffusion Models

要約

高次元データを学習可能にするには、高度に構造化する必要があります。
データの構成的および階層的な性質は、学習可能性を説明するためによく提唱されますが、これらの特性を確立する定量的な測定はほとんどありません。
同様に、そのようなデータ構造の基礎となる潜在変数にアクセスすることも依然として課題です。
この研究では、データにノイズを加えてからノイズを除去して新しいサンプルを生成する、拡散ベースのモデルでの前方後方実験が、データの潜在構造を調査するための有望なツールであることを示します。
私たちは単純な階層モデルで、このプロセスでは、相転移が起こることが知られているノイズ レベルで発散する長さスケールを備えた、相関するチャンクによってデータの変更が発生すると予測します。
注目すべきことに、最先端の拡散モデルを使用して、テキストと画像の両方のデータセットでこの予測が確認されました。
私たちの結果は、潜在的な変数の変化がデータにどのように現れるかを示し、拡散モデルを使用して実際のデータでこれらの効果を測定する方法を確立します。

要約(オリジナル)

High-dimensional data must be highly structured to be learnable. Although the compositional and hierarchical nature of data is often put forward to explain learnability, quantitative measurements establishing these properties are scarce. Likewise, accessing the latent variables underlying such a data structure remains a challenge. In this work, we show that forward-backward experiments in diffusion-based models, where data is noised and then denoised to generate new samples, are a promising tool to probe the latent structure of data. We predict in simple hierarchical models that, in this process, changes in data occur by correlated chunks, with a length scale that diverges at a noise level where a phase transition is known to take place. Remarkably, we confirm this prediction in both text and image datasets using state-of-the-art diffusion models. Our results show how latent variable changes manifest in the data and establish how to measure these effects in real data using diffusion models.

arxiv情報

著者 Antonio Sclocchi,Alessandro Favero,Noam Itzhak Levi,Matthieu Wyart
発行日 2024-10-17 17:08:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Probing the Latent Hierarchical Structure of Data via Diffusion Models はコメントを受け付けていません

Is Prior-Free Black-Box Non-Stationary Reinforcement Learning Feasible?

要約

システムの非定常性に関する事前知識なしで、非定常強化学習 (NS-RL) の問題を研究します。
MASTER として知られる最先端のブラックボックス アルゴリズムが、定められた目標を達成できる条件を特定することに重点を置いて検討されています。
具体的には、MASTER の非定常性検出メカニズムが実際のホライズンの選択に対してトリガーされず、ランダムな再起動アルゴリズムと同様のパフォーマンスが得られることを証明します。
さらに、MASTER に向かうリグレスは、次数が最適であるにもかかわらず、ホライズンの値が不当に大きくなるまで、最悪の場合の線形リグレスを上回っていることを示します。
これらの観察を検証するために、MASTER は、ランダムな再起動を使用する方法や、最も迅速な変更検出を使用して再起動するその他の方法とともに、区分的に静止する多腕バンディットの特殊なケースに対してテストされます。
非定常性に関する事前知識を備えた、単純で順序最適なランダム再起動アルゴリズムがベースラインとして提案されています。
MASTER アルゴリズムの動作はシミュレーションで検証され、最も迅速な変更検出を採用した方法はより堅牢であり、MASTER やその他のランダムな再起動アプローチよりも一貫して優れていることが示されています。

要約(オリジナル)

We study the problem of Non-Stationary Reinforcement Learning (NS-RL) without prior knowledge about the system’s non-stationarity. A state-of-the-art, black-box algorithm, known as MASTER, is considered, with a focus on identifying the conditions under which it can achieve its stated goals. Specifically, we prove that MASTER’s non-stationarity detection mechanism is not triggered for practical choices of horizon, leading to performance akin to a random restarting algorithm. Moreover, we show that the regret bound for MASTER, while being order optimal, stays above the worst-case linear regret until unreasonably large values of the horizon. To validate these observations, MASTER is tested for the special case of piecewise stationary multi-armed bandits, along with methods that employ random restarting, and others that use quickest change detection to restart. A simple, order optimal random restarting algorithm, that has prior knowledge of the non-stationarity is proposed as a baseline. The behavior of the MASTER algorithm is validated in simulations, and it is shown that methods employing quickest change detection are more robust and consistently outperform MASTER and other random restarting approaches.

arxiv情報

著者 Argyrios Gerogiannis,Yu-Han Huang,Venugopal V. Veeravalli
発行日 2024-10-17 17:09:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Is Prior-Free Black-Box Non-Stationary Reinforcement Learning Feasible? はコメントを受け付けていません

Enhancing Retail Sales Forecasting with Optimized Machine Learning Models

要約

小売売上予測では、将来の売上を正確に予測することが、在庫管理と戦略計画にとって重要です。
LR などの従来の方法では、季節性や多数の製品ファミリーを含む販売データの複雑さにより、不十分なことがよくあります。
機械学習 (ML) の最近の進歩により、より堅牢な代替手段が提供されます。
この研究では、ML、特にランダム フォレスト (RF)、勾配ブースティング (GB)、サポート ベクター回帰 (SVR)、および XGBoost の力を活用して、予測精度を向上させています。
進歩にもかかわらず、季節性の高い複雑なデータセットや複数の製品ファミリーの処理には大きなギャップが存在します。
提案されたソリューションには、ランダム化検索相互検証によるハイパーパラメーター調整を活用した、RF モデルの実装と最適化が含まれます。
このアプローチはデータセットの複雑さに対処し、従来の方法では見逃していた複雑なパターンを捕捉します。
最適化された RF モデルは、R 二乗値 0.945 を達成しました。これは、初期 RF モデルおよび従来の LR の R 二乗値 0.531 よりも大幅に高かったです。
このモデルは二乗平均平方根対数誤差 (RMSLE) を 1.172 に削減し、その優れた予測能力を実証しました。
最適化された RF モデルは、Gradient Boosting (R 二乗: 0.942)、SVR (R 二乗: 0.940)、XGBoost (R 二乗: 0.939) などの最先端のモデルよりも優れた結果を示しましたが、平均二乗誤差 (MSE) はより多くありました。
および平均絶対誤差 (MAE) 数値。
結果は、最適化された RF モデルが小売売上高の予測に優れており、複雑なデータセットをより高い精度と信頼性で処理できることを示しています。
この研究は、予測分析における高度な ML 技術の重要性を強調し、従来の手法やその他の現代モデルに比べて大幅な改善をもたらします。

要約(オリジナル)

In retail sales forecasting, accurately predicting future sales is crucial for inventory management and strategic planning. Traditional methods like LR often fall short due to the complexity of sales data, which includes seasonality and numerous product families. Recent advancements in machine learning (ML) provide more robust alternatives. This research benefits from the power of ML, particularly Random Forest (RF), Gradient Boosting (GB), Support Vector Regression (SVR), and XGBoost, to improve prediction accuracy. Despite advancements, a significant gap exists in handling complex datasets with high seasonality and multiple product families. The proposed solution involves implementing and optimizing a RF model, leveraging hyperparameter tuning through randomized search cross-validation. This approach addresses the complexities of the dataset, capturing intricate patterns that traditional methods miss. The optimized RF model achieved an R-squared value of 0.945, substantially higher than the initial RF model and traditional LR, which had an R-squared of 0.531. The model reduced the root mean squared logarithmic error (RMSLE) to 1.172, demonstrating its superior predictive capability. The optimized RF model did better than cutting-edge models like Gradient Boosting (R-squared: 0.942), SVR (R-squared: 0.940), and XGBoost (R-squared: 0.939), with more minor mean squared error (MSE) and mean absolute error (MAE) numbers. The results demonstrate that the optimized RF model excels in forecasting retail sales, handling the datasets complexity with higher accuracy and reliability. This research highlights the importance of advanced ML techniques in predictive analytics, offering a significant improvement over traditional methods and other contemporary models.

arxiv情報

著者 Priyam Ganguly,Isha Mukherjee
発行日 2024-10-17 17:11:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Enhancing Retail Sales Forecasting with Optimized Machine Learning Models はコメントを受け付けていません