Mamba time series forecasting with uncertainty quantification

要約

マンバなどの状態空間モデルは、シーケンスパターンをキャプチャする能力により、最近、時系列予測で注目を集めています。
ただし、電力消費ベンチマークでは、Mambaの予測は平均誤差の約8 \%を示します。
同様に、トラフィック占有ベンチマークでは、平均エラーは18 \%に達します。
この矛盾により、予測が単に不正確であるか、履歴データに広がっているとエラー内に該当するのか疑問に思うようになります。
この制限に対処するために、MAMBA予測の予測不確実性を定量化する方法を提案します。
ここでは、確率的予測のMambaアーキテクチャに基づいたデュアルネットワークフレームワークを提案します。ここでは、1つのネットワークがポイント予測を生成し、他のネットワークは分散をモデル化することにより予測不確実性を推定します。
Mamba-Probtsfとその実装のコードはGithub(https://github.com/pessoap/mamba-probtsf)で利用できるように、Mamba-probtsfとその実装のコードを使用できるため、Mambaを確率的時系列予測で略します。
合成および実世界のベンチマークデータセットでこのアプローチを評価すると、学習された分布とデータの間のKullback-Leiblerの発散は、無限のデータの限界で、モデルがゼロに収束するはずです。
その有効性。
電力消費量と交通占有ベンチマークの両方で、真の軌道は、約95%の時間で2シグマレベルで予測される不確実性間隔内にとどまることがわかります。
潜在的な制限、パフォーマンスを改善するための調整、およびこのフレームワークを、純粋なブラウン運動や分子動力学の軌跡で観察されるように、確率的変化が蓄積する純粋または大部分の確率的ダイナミクスのプロセスにこのフレームワークを適用するための考慮事項を考慮して終わります。

要約(オリジナル)

State space models, such as Mamba, have recently garnered attention in time series forecasting due to their ability to capture sequence patterns. However, in electricity consumption benchmarks, Mamba forecasts exhibit a mean error of approximately 8\%. Similarly, in traffic occupancy benchmarks, the mean error reaches 18\%. This discrepancy leaves us to wonder whether the prediction is simply inaccurate or falls within error given spread in historical data. To address this limitation, we propose a method to quantify the predictive uncertainty of Mamba forecasts. Here, we propose a dual-network framework based on the Mamba architecture for probabilistic forecasting, where one network generates point forecasts while the other estimates predictive uncertainty by modeling variance. We abbreviate our tool, Mamba with probabilistic time series forecasting, as Mamba-ProbTSF and the code for its implementation is available on GitHub (https://github.com/PessoaP/Mamba-ProbTSF). Evaluating this approach on synthetic and real-world benchmark datasets, we find Kullback-Leibler divergence between the learned distributions and the data–which, in the limit of infinite data, should converge to zero if the model correctly captures the underlying probability distribution–reduced to the order of $10^{-3}$ for synthetic data and $10^{-1}$ for real-world benchmark, demonstrating its effectiveness. We find that in both the electricity consumption and traffic occupancy benchmark, the true trajectory stays within the predicted uncertainty interval at the two-sigma level about 95\% of the time. We end with a consideration of potential limitations, adjustments to improve performance, and considerations for applying this framework to processes for purely or largely stochastic dynamics where the stochastic changes accumulate, as observed for example in pure Brownian motion or molecular dynamics trajectories.

arxiv情報

著者 Pedro Pessoa,Paul Campitelli,Douglas P. Shepherd,S. Banu Ozkan,Steve Pressé
発行日 2025-06-11 16:50:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, nlin.CD, stat.ML | コメントする

Bayesian Probabilistic Matrix Factorization

要約

マトリックス因数分解は、推奨システムで広く使用されている手法です。
確率的マトリックス因数分解(PMF)[1]は、潜在因子に確率分布を組み込むことにより、従来のマトリックス因数分解を拡張し、不確実性の定量化を可能にします。
ただし、高次元の積分により、事後分布を計算することは扱いにくいです。
これに対処するために、2つのベイジアン推論方法:マルコフチェーンモンテカルロ(MCMC)[2]と変分推論(VI)[3]を使用して、後部を近似します。
Movielensデータセットでのパフォーマンスを評価し、収束速度、予測精度、計算効率を比較します。
実験結果は、VIがより速い収束を提供することを示していますが、MCMCはより正確な事後推定値を提供することを示しています。

要約(オリジナル)

Matrix factorization is a widely used technique in recommendation systems. Probabilistic Matrix Factorization (PMF) [1] extends traditional matrix factorization by incorporating probability distributions over latent factors, allowing for uncertainty quantification. However, computing the posterior distribution is intractable due to the high-dimensional integral. To address this, we employ two Bayesian inference methods: Markov Chain Monte Carlo (MCMC) [2] and Variational Inference (VI) [3] to approximate the posterior. We evaluate their performance on MovieLens dataset and compare their convergence speed, predictive accuracy, and computational efficiency. Experimental results demonstrate that VI offers faster convergence, while MCMC provides more accurate posterior estimates.

arxiv情報

著者 Ruixuan Xu,Xiangxiang Weng
発行日 2025-06-11 16:51:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | コメントする

RNE: a plug-and-play framework for diffusion density estimation and inference-time control

要約

この論文では、パス分布間の密度比の概念に基づいて、拡散推論時間密度の推定と制御のための柔軟なプラグアンドプレイフレームワークであるRadon-Nikodym推定器(RNE)を紹介します。
RNEは、基本的な変動推論と確率論的原理に起因する、単一の直感的な視点の下で、さまざまな既存の密度推定および推論時間制御方法を接続および統合します。
実験は、RNEが拡散密度の推定で強力な結果をもたらし、有望な推論時間スケーリングパフォーマンスを備えた、アニーリング、拡散モデルの構成、報酬傾斜などの推論時間制御タスクに幅広い適用可能性を提供することを示しています。

要約(オリジナル)

In this paper, we introduce the Radon-Nikodym Estimator (RNE), a flexible, plug-and-play framework for diffusion inference-time density estimation and control, based on the concept of the density ratio between path distributions. RNE connects and unifies a variety of existing density estimation and inference-time control methods under a single and intuitive perspective, stemming from basic variational inference and probabilistic principles therefore offering both theoretical clarity and practical versatility. Experiments demonstrate that RNE delivers strong results in diffusion density estimation, and offers broad applicability to inference-time control tasks — such as annealing, diffusion model composition, and reward-tilting — with promising inference-time scaling performance.

arxiv情報

著者 Jiajun He,José Miguel Hernández-Lobato,Yuanqi Du,Francisco Vargas
発行日 2025-06-11 16:51:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | コメントする

Generate-then-Verify: Reconstructing Data from Limited Published Statistics

要約

集計統計から表形式データを再構築する問題を研究します。攻撃者は、集合体を考慮して100%確実に検証できる機密データに関する興味深い主張を特定することを目指しています。
以前の作業での成功した試みは、公開された統計のセットが十分に豊富であるため、データセット全体を確実に再構築できる設定で研究を実施しました。
私たちの作業では、代わりに、多くの可能なデータセットが公開されている統計と一致する体制に焦点を当て、プライベートデータセット全体を完全に再構築することを不可能にします(つまり、以前の作業のアプローチが失敗したとき)。
敵の目標は、代わりに$ \ textit {subset} $を、$ \ textit {正しいものに保証されている} $の列の$ \ textit {subset} $を出力することです。
最初の$ \ textbf {generates} $のクレームのセット、次に$ \ textbf {verififies} $を紹介する新しい整数プログラミングアプローチを紹介します。
米国の10年生の国勢調査リリースからの住宅レベルのマイクロダタに関するアプローチを評価し、そのようなデータに関する情報が比較的まばらである場合でも、プライバシー違反が依然として持続できることを実証しています。

要約(オリジナル)

We study the problem of reconstructing tabular data from aggregate statistics, in which the attacker aims to identify interesting claims about the sensitive data that can be verified with 100% certainty given the aggregates. Successful attempts in prior work have conducted studies in settings where the set of published statistics is rich enough that entire datasets can be reconstructed with certainty. In our work, we instead focus on the regime where many possible datasets match the published statistics, making it impossible to reconstruct the entire private dataset perfectly (i.e., when approaches in prior work fail). We propose the problem of partial data reconstruction, in which the goal of the adversary is to instead output a $\textit{subset}$ of rows and/or columns that are $\textit{guaranteed to be correct}$. We introduce a novel integer programming approach that first $\textbf{generates}$ a set of claims and then $\textbf{verifies}$ whether each claim holds for all possible datasets consistent with the published aggregates. We evaluate our approach on the housing-level microdata from the U.S. Decennial Census release, demonstrating that privacy violations can still persist even when information published about such data is relatively sparse.

arxiv情報

著者 Terrance Liu,Eileen Xiao,Adam Smith,Pratiksha Thaker,Zhiwei Steven Wu
発行日 2025-06-11 16:54:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, stat.ML | コメントする

Limits of nonlinear and dispersive fiber propagation for an optical fiber-based extreme learning machine

要約

光ファイバ伝播に基づいて、極端な学習マシン(ELM)の一般化された非線形Schr \ ‘Odinger方程式シミュレーションモデルを報告します。
ベンチマークとしてMnistの手書きの桁データセットを使用して、精度が伝播ダイナミクス、およびスペクトルエンコード、読み取り、およびノイズを管理するパラメーターにどのように依存するかを調べます。
このデータセットとQuantum Noise Limited入力の場合、テスト精度:それぞれ91%以上の精度が異常および正常分散領域の伝播に見られます。
また、私たちの結果は、入力パルスの量子ノイズがELMのパフォーマンスに固有のペナルティを導入することを示唆しています。

要約(オリジナル)

We report a generalized nonlinear Schr\’odinger equation simulation model of an extreme learning machine (ELM) based on optical fiber propagation. Using the MNIST handwritten digit dataset as a benchmark, we study how accuracy depends on propagation dynamics, as well as parameters governing spectral encoding, readout, and noise. For this dataset and with quantum noise limited input, test accuracies of : over 91% and 93% are found for propagation in the anomalous and normal dispersion regimes respectively. Our results also suggest that quantum noise on the input pulses introduces an intrinsic penalty to ELM performance.

arxiv情報

著者 Andrei V. Ermolaev,Mathilde Hary,Lev Leybov,Piotr Ryczkowski,Anas Skalli,Daniel Brunner,Goëry Genty,John M. Dudley
発行日 2025-06-11 16:59:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.optics | コメントする

Leveraging Coordinate Momentum in SignSGD and Muon: Memory-Optimized Zero-Order

要約

大型言語モデル(LLMS)の微調整は、事前に訓練されたモデルをダウンストリームタスクに適応させるために不可欠です。
しかし、確率的勾配降下(SGD)やAdamなどの従来の1次オプティマイザーは、モデルサイズで縮小する法外なメモリと計算コストを負担します。
このホワイトペーパーでは、特にLORAのようなパラメーター効率の高い微調整技術のコンテキストで、メモリおよび計算効率の高い代替品としてゼロオーダー(ZO)最適化方法を調査します。
ZO SignsGDを拡張するZOモメンタムベースのアルゴリズムである$ \ texttt {jaguar signsgd} $を提案します。
私たちの知る限り、これは確率的ZOケースでSignsgDの厳密な収束保証を確立する最初の研究です。
さらに、モデルパラメーターのマトリックス構造を活用するMuonオプティマイザーの新しいZO拡張である$ \ texttt {Jaguar Muon} $を提案し、任意の確率ノイズの下で収束速度を提供します。
挑戦的なLLM微調整ベンチマークに関する広範な実験を通じて、提案されたアルゴリズムが標準の1次方法の収束品質を満たしているか、それを超えて、大幅なメモリ削減を達成することを実証します。
当社の理論的および経験的結果は、リソースに制約のあるLLM適応のための実用的および理論的に根拠のあるアプローチとして、新しいZO最適化方法を確立しています。
私たちのコードはhttps://github.com/brain-mmo-lab/zo_llmで入手できます

要約(オリジナル)

Fine-tuning Large Language Models (LLMs) is essential for adapting pre-trained models to downstream tasks. Yet traditional first-order optimizers such as Stochastic Gradient Descent (SGD) and Adam incur prohibitive memory and computational costs that scale poorly with model size. In this paper, we investigate zero-order (ZO) optimization methods as a memory- and compute-efficient alternative, particularly in the context of parameter-efficient fine-tuning techniques like LoRA. We propose $\texttt{JAGUAR SignSGD}$, a ZO momentum-based algorithm that extends ZO SignSGD, requiring the same number of parameters as the standard ZO SGD and only $\mathcal{O}(1)$ function evaluations per iteration. To the best of our knowledge, this is the first study to establish rigorous convergence guarantees for SignSGD in the stochastic ZO case. We further propose $\texttt{JAGUAR Muon}$, a novel ZO extension of the Muon optimizer that leverages the matrix structure of model parameters, and we provide its convergence rate under arbitrary stochastic noise. Through extensive experiments on challenging LLM fine-tuning benchmarks, we demonstrate that the proposed algorithms meet or exceed the convergence quality of standard first-order methods, achieving significant memory reduction. Our theoretical and empirical results establish new ZO optimization methods as a practical and theoretically grounded approach for resource-constrained LLM adaptation. Our code is available at https://github.com/brain-mmo-lab/ZO_LLM

arxiv情報

著者 Egor Petrov,Grigoriy Evseev,Aleksey Antonov,Andrey Veprikov,Pavel Plyusnin,Nikolay Bushkov,Stanislav Moiseev,Aleksandr Beznosikov
発行日 2025-06-11 17:05:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | コメントする

Scalable First-order Method for Certifying Optimal k-Sparse GLMs

要約

このペーパーでは、スパース一般化線形モデル(GLMS)の最適性を証明する問題を調査します。ここでは、$ \ ell_0 $のカーディナリティ制約を通じてスパースが施行されます。
ブランチアンドバウンド(BNB)フレームワークは、デュアル境界を使用してノードを剪定することにより最適性を証明できますが、これらの境界を計算するための既存の方法は、計算的に集中的であるか、ゆっくりと収束を示し、スケーラビリティを大規模な問題に制限します。
この課題に対処するために、BNBフレームワーク内の問題の視点緩和を解決するために設計された1次近位勾配アルゴリズムを提案します。
具体的には、リラックスした問題を複合最適化問題として定式化し、非スムースコンポーネントの近位演算子を対数線形時間の複雑さで正確に計算できることを実証し、計算高価な2次コーンプログラムを解決する必要性を排除します。
さらに、収束速度を強化しながら、投与ごとの複雑さを維持しながら、簡単な再起動戦略を導入します。
合成および現実世界のデータセットに関する広範な実験は、このアプローチが二重結合計算を大幅に加速し、大規模な問題の最適性証明書を提供するのに非常に効果的であることを示しています。

要約(オリジナル)

This paper investigates the problem of certifying optimality for sparse generalized linear models (GLMs), where sparsity is enforced through an $\ell_0$ cardinality constraint. While branch-and-bound (BnB) frameworks can certify optimality by pruning nodes using dual bounds, existing methods for computing these bounds are either computationally intensive or exhibit slow convergence, limiting their scalability to large-scale problems. To address this challenge, we propose a first-order proximal gradient algorithm designed to solve the perspective relaxation of the problem within a BnB framework. Specifically, we formulate the relaxed problem as a composite optimization problem and demonstrate that the proximal operator of the non-smooth component can be computed exactly in log-linear time complexity, eliminating the need to solve a computationally expensive second-order cone program. Furthermore, we introduce a simple restart strategy that enhances convergence speed while maintaining low per-iteration complexity. Extensive experiments on synthetic and real-world datasets show that our approach significantly accelerates dual bound computations and is highly effective in providing optimality certificates for large-scale problems.

arxiv情報

著者 Jiachang Liu,Soroosh Shafiee,Andrea Lodi
発行日 2025-06-11 17:23:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | コメントする

Provable Benefits of Unsupervised Pre-training and Transfer Learning via Single-Index Models

要約

監視されていない訓練前および転送学習は、特に限られたラベル付きデータを持つ設定で、ニューラルネットワークのトレーニングアルゴリズムを初期化するために一般的に使用されています。
この論文では、高次元の監視学習のサンプルの複雑さに対する監視されていない監視されていない訓練前および転送学習の効果を研究します。
具体的には、オンラインの確率的勾配降下を介して単一層ニューラルネットワークをトレーニングする問題を検討します。
トレーニング前および転送学習(概念シフトの下)は、非常に一般的な仮定の下での多項式要因(次元)によりサンプルの複雑さを減らすことを確立します。
また、サンプルの複雑さの観点からランダムな初期化よりも指数関数的な改善を担当する驚くべき設定を発見します。

要約(オリジナル)

Unsupervised pre-training and transfer learning are commonly used techniques to initialize training algorithms for neural networks, particularly in settings with limited labeled data. In this paper, we study the effects of unsupervised pre-training and transfer learning on the sample complexity of high-dimensional supervised learning. Specifically, we consider the problem of training a single-layer neural network via online stochastic gradient descent. We establish that pre-training and transfer learning (under concept shift) reduce sample complexity by polynomial factors (in the dimension) under very general assumptions. We also uncover some surprising settings where pre-training grants exponential improvement over random initialization in terms of sample complexity.

arxiv情報

著者 Taj Jones-McCormick,Aukosh Jagannath,Subhabrata Sen
発行日 2025-06-11 17:36:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | コメントする

Multiverse: Your Language Models Secretly Decide How to Parallelize and Merge Generation

要約

オートレーリングの大型言語モデル(AR-LLM)は、順次生成において暗黙的な並列性を頻繁に示します。
これに触発されて、私たちは、ネイティブに平行な生成を可能にする新しい生成モデルであるMultiverseを紹介します。
マルチバースは、MapReduceパラダイムを内面化し、3つの段階で自動的に生成します。(i)適応タスク分解のマップ段階、(ii)パラレルサブタスク実行のプロセス段階、(iii)ロスレス結果合成の削減段階。
次に、データ、アルゴリズム、およびシステムの共同設計を備えた実際の多元恒例の推論モデルを構築し、フロンティアAR-LLMSからの迅速かつシームレスな転送を可能にします。
シーケンシャル推論チェーンから始めて、自動化されたLLM支援パイプラインを使用して構造化されたトレーニングデータに変換し、高価な人間の注釈を回避することにより、マルチバース1Kを作成します。
アルゴリズム的には、効率的なトレーニングのために因果関係と互換性を維持しながら、多元宇宙の注意を別々の並列推論ステップに設計します。
体系的には、並列推論を有効にするためにマルチバースエンジンを実装します。
モデルによって直接トリガーされるシーケンシャルとパラレルの生成を動的に切り替える専用のスケジューラを備えています。
1Kの例で3時間の微調整を行った後、私たちの多元宇宙-32Bは、それぞれ同じスケールの主要なAR-LLMと同等のパフォーマンスを達成する唯一のオープンソースの非ARモデルとして、それぞれ54%と46%の54%と46%のスコアによって証明されます。
さらに、当社の予算管理実験は、マルチバース-32Bが優れたスケーリングを示し、同じコンテキスト長を使用して平均で1.87%を上回るAR-llMを上回ることを示しています。
このようなスケーリングはさらに実用的な効率の向上につながり、さまざまなバッチサイズで最大2倍の高速化を達成します。
データ、モデルの重み、エンジン、サポートツール、完全なデータキュレーションのプロンプト、詳細なトレーニングと評価レシピなど、多元宇宙エコシステム全体をオープンソースしました。

要約(オリジナル)

Autoregressive Large Language Models (AR-LLMs) frequently exhibit implicit parallelism in sequential generation. Inspired by this, we introduce Multiverse, a new generative model that enables natively parallel generation. Multiverse internalizes a MapReduce paradigm, generating automatically through three stages: (i) a Map stage for adaptive task decomposition, (ii) a Process stage for parallel subtask execution, and (iii) a Reduce stage for lossless result synthesis. Next, we build a real-world Multiverse reasoning model with co-design of data, algorithm, and system, enabling rapid and seamless transfer from frontier AR-LLMs. Starting from sequential reasoning chains, we create Multiverse 1K by converting them into structured training data using an automated LLM-assisted pipeline, avoiding costly human annotations. Algorithmically, we design Multiverse Attention to separate parallel reasoning steps while keeping compatibility with causal attention for efficient training. Systematically, we implement Multiverse Engine to enable parallel inference. It features a dedicated scheduler that dynamically switches between sequential and parallel generation, triggered directly by the model. After a 3-hour fine-tuning with 1K examples, our Multiverse-32B stands as the only open-sourced non-AR model achieving performance on par with leading AR-LLMs of the same scale, evidenced by AIME24 & 25 scores of 54% and 46%, respectively. Moreover, our budget control experiments show that Multiverse-32B exhibits superior scaling, outperforming AR-LLMs by 1.87% on average using the same context length. Such scaling further leads to practical efficiency gain, achieving up to 2x speedup across varying batch sizes. We have open-sourced the entire Multiverse ecosystem, including data, model weights, engine, supporting tools, as well as complete data curation prompts and detailed training and evaluation recipes.

arxiv情報

著者 Xinyu Yang,Yuwei An,Hongyi Liu,Tianqi Chen,Beidi Chen
発行日 2025-06-11 17:59:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする

EVINET: Towards Open-World Graph Learning via Evidential Reasoning Network

要約

グラフ学習は多くの現実世界のタスクにとって非常に重要でしたが、それらはしばしば閉じた世界の仮定で研究され、すべての可能なデータのラベルが先験的に知られています。
オープンでノイズの多い環境で効果的なグラフ学習を可能にするために、モデルが既知のクラスの分配データを間違った予測を行う場合、つまり誤分類の検出、またはモデルが新しいクラスからの分散分布、つまり分配不足の検出に遭遇する場合、モデルユーザーに通知することが重要です。
このペーパーでは、主観的ロジックフレームワーク内にベータ埋め込みを統合することにより、これら2つの課題に対処するフレームワークであるEvididential Reasoning Network(Evinet)を紹介します。
Evinetには、2つの重要なモジュールが含まれています。誤分類の検出のための不協和音の推論と、分散除外検出のための空白の推論。
広範な実験は、Evinetが分散分類、誤分類の検出、および分散除外検出のタスクにおける複数のメトリックにわたって最先端の方法を上回ることを示しています。
Evinetは、不確実性の推定と誤分類の検出と分散型検出のための論理的推論の必要性を実証し、オープンワールドグラフ学習の道を開きます。
私たちのコードとデータは、https://github.com/ssskj/evinetで入手できます。

要約(オリジナル)

Graph learning has been crucial to many real-world tasks, but they are often studied with a closed-world assumption, with all possible labels of data known a priori. To enable effective graph learning in an open and noisy environment, it is critical to inform the model users when the model makes a wrong prediction to in-distribution data of a known class, i.e., misclassification detection or when the model encounters out-of-distribution from novel classes, i.e., out-of-distribution detection. This paper introduces Evidential Reasoning Network (EVINET), a framework that addresses these two challenges by integrating Beta embedding within a subjective logic framework. EVINET includes two key modules: Dissonance Reasoning for misclassification detection and Vacuity Reasoning for out-of-distribution detection. Extensive experiments demonstrate that EVINET outperforms state-of-the-art methods across multiple metrics in the tasks of in-distribution classification, misclassification detection, and out-of-distribution detection. EVINET demonstrates the necessity of uncertainty estimation and logical reasoning for misclassification detection and out-of-distribution detection and paves the way for open-world graph learning. Our code and data are available at https://github.com/SSSKJ/EviNET.

arxiv情報

著者 Weijie Guan,Haohui Wang,Jian Kang,Lihui Liu,Dawei Zhou
発行日 2025-06-11 17:59:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする