A Comparison of Parametric Dynamic Mode Decomposition Algorithms for Thermal-Hydraulics Applications

要約

近年、利用可能なデータからモデルを学習することを目的としたアルゴリズムは、2つの要因のために非常に人気がありました。1)人工知能技術の重要な開発と2)大量のデータの利用可能性。
それにもかかわらず、このトピックは、削減された注文モデリングフレームワークに属する方法論によってすでに対処されています。おそらく最も有名な方程式のない手法は動的モード分解です。
このアルゴリズムは、時系列データセットで記述された物理現象を表す最良の線形モデルを学習することを目的としています。その出力は、原則として、元のデータセットをその期間を超えて前進させるために使用できる基礎となる動的システムの最良の状態演算子です。
ただし、標準の定式化では、この手法はパラメトリック時系列を扱うことはできません。つまり、パラメーター実現ごとに異なる線形モデルを導出する必要があります。
これに関する研究は進行中であり、パラメトリック動的モード分解のいくつかのバージョンがすでに存在しています。
この作業は、現在展開されているさまざまなアルゴリズムを比較し、互いにその利点と欠点を評価することにより、この研究分野に貢献します。
この目的のために、3つの異なる熱油圧の問題が考慮されます。2つのベンチマーク「シリンダー上の流れ」テストケースは、それぞれFENICS有限要素ソルバーでデータセットが取得され、CFDBenchデータセットから取得され、インターン型のin inculative for fircuatived for intercid for intercid for intercid for cfdbench Datasetから取得しました。
Relap5 Nodalソルバーを使用してデータセットが生成されたアプリケーション。

要約(オリジナル)

In recent years, algorithms aiming at learning models from available data have become quite popular due to two factors: 1) the significant developments in Artificial Intelligence techniques and 2) the availability of large amounts of data. Nevertheless, this topic has already been addressed by methodologies belonging to the Reduced Order Modelling framework, of which perhaps the most famous equation-free technique is Dynamic Mode Decomposition. This algorithm aims to learn the best linear model that represents the physical phenomena described by a time series dataset: its output is a best state operator of the underlying dynamical system that can be used, in principle, to advance the original dataset in time even beyond its span. However, in its standard formulation, this technique cannot deal with parametric time series, meaning that a different linear model has to be derived for each parameter realization. Research on this is ongoing, and some versions of a parametric Dynamic Mode Decomposition already exist. This work contributes to this research field by comparing the different algorithms presently deployed and assessing their advantages and shortcomings compared to each other. To this aim, three different thermal-hydraulics problems are considered: two benchmark ‘flow over cylinder’ test cases at diverse Reynolds numbers, whose datasets are, respectively, obtained with the FEniCS finite element solver and retrieved from the CFDbench dataset, and the DYNASTY experimental facility operating at Politecnico di Milano, which studies the natural circulation established by internally heated fluids for Generation IV nuclear applications, whose dataset was generated using the RELAP5 nodal solver.

arxiv情報

著者 Stefano Riva,Andrea Missaglia,Carolina Introini,In Cheol Bang,Antonio Cammi
発行日 2025-03-31 15:23:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.DS | A Comparison of Parametric Dynamic Mode Decomposition Algorithms for Thermal-Hydraulics Applications はコメントを受け付けていません

Data-driven construction of a generalized kinetic collision operator from molecular dynamics

要約

データ駆動型のアプローチを導入して、分子動力学から一般化された運動衝突オペレーターを直接学習します。
従来の(例:Landau)モデルとは異なり、現在の演算子は、衝突粒子のペアと環境の間の集合的な相互作用から生じる2番目のエネルギー移動を説明する異方性形式を採用しています。
数値的結果は、衝突エネルギー伝達の見落とされがちな異方性の性質を保存することが、Landauモデルが制限を示す陰性相関でプラズマ動態を予測するために重要であることを示しています。

要約(オリジナル)

We introduce a data-driven approach to learn a generalized kinetic collision operator directly from molecular dynamics. Unlike the conventional (e.g., Landau) models, the present operator takes an anisotropic form that accounts for a second energy transfer arising from the collective interactions between the pair of collision particles and the environment. Numerical results show that preserving the broadly overlooked anisotropic nature of the collision energy transfer is crucial for predicting the plasma kinetics with non-negligible correlations, where the Landau model shows limitations.

arxiv情報

著者 Yue Zhao,William Burby,Andrew Christlieb,Huan Lei
発行日 2025-03-31 15:26:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, physics.comp-ph, physics.plasm-ph | Data-driven construction of a generalized kinetic collision operator from molecular dynamics はコメントを受け付けていません

Evolutionary Optimization of Physics-Informed Neural Networks: Survey and Prospects

要約

有限データで訓練された深い学習モデルは、物理的な世界を完全に理解していません。
一方、物理学に基づいたニューラルネットワーク(PINN)には、数学的に表現された自然の法則がトレーニング損失機能に組み込まれることにより、そのような知識が注入されています。
PINNSは、物理的法則を順守することにより、限られた産業体制で純粋にデータ駆動型モデルよりも利点を提供します。
この機能により、それらを科学機械学習の最前線に導きました。これは、希少で費用のかかるデータを特徴とするドメインです。
ただし、正確な物理学に基づいた学習のビジョンには、大きな課題があります。
このレビューでは、モデルの最適化と一般化の観点からPINNを初めて調べ、トレーニング速度、精度、および今日のPINNモデルの一般化性に関連する問題を克服するための新しいアルゴリズムの進歩の必要性に光を当てています。
特に興味深いのは、PINNトレーニングで発生するユニークな複雑な損失景観を最適化するための神経進化の勾配のない方法です。
方法化された神経アーキテクチャを発見し、物理学に基づいた学習目標における複数の矛盾する用語のバランスをとるための勾配降下と神経進化の相乗的な方法は、将来の研究の重要な道として位置づけられています。
さらに別のエキサイティングなトラックは、一般化可能なPINNモデルのメタ学習者としてニューロエボリューションをキャストすることです。

要約(オリジナル)

Deep learning models trained on finite data lack a complete understanding of the physical world. On the other hand, physics-informed neural networks (PINNs) are infused with such knowledge through the incorporation of mathematically expressible laws of nature into their training loss function. By complying with physical laws, PINNs provide advantages over purely data-driven models in limited-data regimes. This feature has propelled them to the forefront of scientific machine learning, a domain characterized by scarce and costly data. However, the vision of accurate physics-informed learning comes with significant challenges. This review examines PINNs for the first time in terms of model optimization and generalization, shedding light on the need for new algorithmic advances to overcome issues pertaining to the training speed, precision, and generalizability of today’s PINN models. Of particular interest are the gradient-free methods of neuroevolution for optimizing the uniquely complex loss landscapes arising in PINN training. Methods synergizing gradient descent and neuroevolution for discovering bespoke neural architectures and balancing multiple conflicting terms in physics-informed learning objectives are positioned as important avenues for future research. Yet another exciting track is to cast neuroevolution as a meta-learner of generalizable PINN models.

arxiv情報

著者 Jian Cheng Wong,Abhishek Gupta,Chin Chun Ooi,Pao-Hsiung Chiu,Jiao Liu,Yew-Soon Ong
発行日 2025-03-31 15:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.NE | Evolutionary Optimization of Physics-Informed Neural Networks: Survey and Prospects はコメントを受け付けていません

A distance for mixed-variable and hierarchical domains with meta variables

要約

異なる機械学習および最適化アプリケーションには、さまざまな入力ソース、種類、または形式を備えた異種のデータセットが現れます。
ほとんどのモデルまたは方法は、不均一性にネイティブに取り組んでいません。
したがって、このようなデータセットは、特にデータが制限されている場合、一般化やパフォーマンスを制限する可能性のある、より小さくより単純なデータセットに分割されることがよくあります。
この作業の最初の主な貢献は、階層的、樹木構造、可変サイズ、または条件付き検索フレームワークを一般化するモデリングフレームワークです。
フレームワークは、変数が連続的、整数、またはカテゴリー的である可能性のある混合変数および階層ドメインをモデル化し、問題の構造に影響を与えるときにメタとして識別されます。
2番目の主な貢献は、同じ変数を共有しない混合変数ポイントのペアを比較する新しい距離であり、混合変数および階層ドメインに存在する不均一なデータセット全体をメタ変数を使用することができます。
貢献は、対応するパフォーマンススコアを持つハイパーパラメーターのデータセットに適用される単純な距離ベースのモデルを使用して、回帰および分類実験を通じて示されています。

要約(オリジナル)

Heterogeneous datasets emerge in various machine learning and optimization applications that feature different input sources, types or formats. Most models or methods do not natively tackle heterogeneity. Hence, such datasets are often partitioned into smaller and simpler ones, which may limit the generalizability or performance, especially when data is limited. The first main contribution of this work is a modeling framework that generalizes hierarchical, tree-structured, variable-size or conditional search frameworks. The framework models mixed-variable and hierarchical domains in which variables may be continuous, integer, or categorical, with some identified as meta when they influence the structure of the problem. The second main contribution is a novel distance that compares any pair of mixed-variable points that do not share the same variables, allowing to use whole heterogeneous datasets that reside in mixed-variable and hierarchical domains with meta variables. The contributions are illustrated through regression and classification experiments using simple distance-based models applied to datasets of hyperparameters with corresponding performance scores.

arxiv情報

著者 Edward Hallé-Hannan,Charles Audet,Youssef Diouane,Sébastien Le Digabel,Paul Saves
発行日 2025-03-31 15:41:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62-XX, 90-xx, cs.LG, stat.ML | A distance for mixed-variable and hierarchical domains with meta variables はコメントを受け付けていません

GPU-centric Communication Schemes for HPC and ML Applications

要約

最新の不均一なスーパーコンピューティングシステムでの計算ノードは、CPU、GPU、および高速ネットワーク相互接続(NICS)で構成されています。
並列化は、これらのシステムを効果的に利用してスケーラブルなシミュレーションとディープラーニングワークロードを実行する手法として特定されています。
これらの並列ワークロードの分散型実行から得られるプロセス間通信は、そのパフォーマンスボトルネックに貢献する重要な要因の1つです。
これらのシステムの通信要件を可能にするほとんどのプログラミングモデルとランタイムシステムは、ホストメモリをステージングすることなく、GPUからGPUからNICに直接移動するGPUアウェア通信スキームをサポートします。
CPUスレッドは、このようなGPU認識をサポートしても、通信操作を調整するために必要です。
この調査では、CPUからGPUに通信操作の制御パスを移動するさまざまな利用可能なGPU中心の通信スキームについて説明します。
この作業は、新しい通信スキーム、スキームの実装に必要なさまざまなGPUおよびNIC機能、および対処される潜在的なユースケースの必要性を示しています。
これらの議論に基づいて、展示されたGPU中心のコミュニケーションスキームのサポートに伴う課題について説明します。

要約(オリジナル)

Compute nodes on modern heterogeneous supercomputing systems comprise CPUs, GPUs, and high-speed network interconnects (NICs). Parallelization is identified as a technique for effectively utilizing these systems to execute scalable simulation and deep learning workloads. The resulting inter-process communication from the distributed execution of these parallel workloads is one of the key factors contributing to its performance bottleneck. Most programming models and runtime systems enabling the communication requirements on these systems support GPU-aware communication schemes that move the GPU-attached communication buffers in the application directly from the GPU to the NIC without staging through the host memory. A CPU thread is required to orchestrate the communication operations even with support for such GPU-awareness. This survey discusses various available GPU-centric communication schemes that move the control path of the communication operations from the CPU to the GPU. This work presents the need for the new communication schemes, various GPU and NIC capabilities required to implement the schemes, and the potential use-cases addressed. Based on these discussions, challenges involved in supporting the exhibited GPU-centric communication schemes are discussed.

arxiv情報

著者 Naveen Namashivayam
発行日 2025-03-31 15:43:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: C.4, cs.DC, cs.LG | GPU-centric Communication Schemes for HPC and ML Applications はコメントを受け付けていません

CryptoPulse: Short-Term Cryptocurrency Forecasting with Dual-Prediction and Cross-Correlated Market Indicators

要約

暗号通貨は、価格のボラティリティが高い市場で変動し、投資家に大きな課題をもたらします。
情報に基づいた意思決定を支援するために、暗号通貨市場の動きを予測するシステムが開発されており、通常は歴史的なパターンに焦点を当てています。
ただし、これらの方法は、市場のダイナミクスに影響を与える3つの重要な要因を見落としていることがよくあります。1)マクロ投資環境は、共同投資家の行動に影響を与える主要な暗号通貨の変動に反映されています。
2)投資家の戦略に影響を与えるニュースに大きく影響された全体的な市場感情。
3)技術的指標。短期的な価格の動きに不可欠な、過剰に買われたり過剰販売条件、勢い、市場動向についての洞察を提供します。
このペーパーでは、マクロ経済の変動、技術指標、および個々の暗号通貨の価格の変化を組み込むことにより、翌日の終値を予測する二重予測メカニズムを提案します。
さらに、新しい改良メカニズムは、市場センチメントベースの再融合と融合を通じて予測を強化します。
実験は、提案されたモデルが最先端のパフォーマンスを達成し、一貫して10の比較方法を上回ることを示しています。

要約(オリジナル)

Cryptocurrencies fluctuate in markets with high price volatility, posing significant challenges for investors. To aid in informed decision-making, systems predicting cryptocurrency market movements have been developed, typically focusing on historical patterns. However, these methods often overlook three critical factors influencing market dynamics: 1) the macro investing environment, reflected in major cryptocurrency fluctuations affecting collaborative investor behaviors; 2) overall market sentiment, heavily influenced by news impacting investor strategies; and 3) technical indicators, offering insights into overbought or oversold conditions, momentum, and market trends, which are crucial for short-term price movements. This paper proposes a dual prediction mechanism that forecasts the next day’s closing price by incorporating macroeconomic fluctuations, technical indicators, and individual cryptocurrency price changes. Additionally, a novel refinement mechanism enhances predictions through market sentiment-based rescaling and fusion. Experiments demonstrate that the proposed model achieves state-of-the-art performance, consistently outperforming ten comparison methods.

arxiv情報

著者 Amit Kumar,Taoran Ji
発行日 2025-03-31 15:58:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-fin.PR | CryptoPulse: Short-Term Cryptocurrency Forecasting with Dual-Prediction and Cross-Correlated Market Indicators はコメントを受け付けていません

Advances in Continual Graph Learning for Anti-Money Laundering Systems: A Comprehensive Review

要約

金融機関は、マネーロンダリングに関連する疑わしい金融取引を報告するために規制により義務付けられています。
したがって、彼らは膨大な量の受信と発信トランザクションを常に監視する必要があります。
マネーロンダリングの検出における特定の課題は、マネーロンダラーが検出を回避するために戦術を継続的に適応させることです。
したがって、検出方法には一定の微調整が必​​要です。
従来の機械学習モデルは、新しいデータでモデルを微調整する際に壊滅的な忘却に苦しみ、それにより動的環境での有効性が制限されます。
継続的な学習方法は、この問題に対処し、現在のマネーロンダリング(AML)プラクティスを強化する場合があります。これにより、モデルは事前知識を保持しながら新しい情報を組み込むことができます。
ただし、AMLの継続的なグラフ学習に関する研究はまだ不足しています。
このレビューでは、AMLアプリケーションの最先端の継続的なグラフ学習アプローチを批判的に評価します。
グラフニューラルネットワーク(GNN)フレームワーク内のリプレイベースの正規化ベース、およびアーキテクチャベースの戦略にメソッドを分類し、異なるハイパーパラメーターの効果を示す合成および実世界のAMLデータセットの両方で詳細な実験評価を提供します。
私たちの分析は、継続的な学習が極端なクラスの不均衡と進化する詐欺パターンに直面して、モデルの適応性と堅牢性を改善することを示しています。
最後に、重要な課題の概要を説明し、将来の研究の方向性を提案します。

要約(オリジナル)

Financial institutions are required by regulation to report suspicious financial transactions related to money laundering. Therefore, they need to constantly monitor vast amounts of incoming and outgoing transactions. A particular challenge in detecting money laundering is that money launderers continuously adapt their tactics to evade detection. Hence, detection methods need constant fine-tuning. Traditional machine learning models suffer from catastrophic forgetting when fine-tuning the model on new data, thereby limiting their effectiveness in dynamic environments. Continual learning methods may address this issue and enhance current anti-money laundering (AML) practices, by allowing models to incorporate new information while retaining prior knowledge. Research on continual graph learning for AML, however, is still scarce. In this review, we critically evaluate state-of-the-art continual graph learning approaches for AML applications. We categorise methods into replay-based, regularization-based, and architecture-based strategies within the graph neural network (GNN) framework, and we provide in-depth experimental evaluations on both synthetic and real-world AML data sets that showcase the effect of the different hyperparameters. Our analysis demonstrates that continual learning improves model adaptability and robustness in the face of extreme class imbalances and evolving fraud patterns. Finally, we outline key challenges and propose directions for future research.

arxiv情報

著者 Bruno Deprez,Wei Wei,Wouter Verbeke,Bart Baesens,Kevin Mets,Tim Verdonck
発行日 2025-03-31 16:06:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Advances in Continual Graph Learning for Anti-Money Laundering Systems: A Comprehensive Review はコメントを受け付けていません

Enhancing Image Resolution of Solar Magnetograms: A Latent Diffusion Model Approach

要約

太陽磁場の空間特性は、太陽内部の物理プロセスとその惑星間効果を解読するために重要です。
ただし、Michelson Doppler Imager(MDI)などの古い機器からの観察により、空間的または時間的解像度が限られているため、小規模な太陽の特徴を詳細に研究する能力が妨げられます。
これらの古いデータセットの超解像度は、さまざまな太陽サイクルにわたる均一な分析に不可欠であり、太陽フレア、アクティブ領域、磁気ネットワークダイナミクスのより良い特性評価を可能にします。
この作業では、超解像度のための新しい拡散モデルアプローチを導入し、Helioseismic and Magnetic Imager(HMI)の高解像度能力に一致するようにMDIマグネトグラムに適用します。
ダウンスケールのHMIデータに残差を備えた潜在拡散モデル(LDM)をトレーニングし、ペアのMDI/HMIデータで微調整することにより、2 ‘/ピクセルから0.5’/ピクセルまでのMDI観測の解像度を強化できます。
古典的なメトリック(PSNR、SSIM、FID、LPIPSなど)を使用して再構築された画像の品質を評価し、署名されていない磁束または活性領域のサイズなどの物理的特性が保存されているかどうかを確認します。
モデルを、LDMのさまざまなバリエーションと拡散確率モデル(DDPM)の除去と比較しますが、過去に超解像度タスクを実行するためにすでに使用されていた2つの決定論的アーキテクチャも比較しています。
さらに、フーリエドメインでの分析で、残差を持つLDMが2 ‘より小さい特徴を解決できることを示し、LDMの確率的性質により、決定論的モデルとは対照的に、それらの信頼性を評価できます。
将来の研究の目的は、太陽MDI機器の時間的スケールを超分解して、古いイベントのダイナミクスのより良い概要を得ることができるようにすることです。

要約(オリジナル)

The spatial properties of the solar magnetic field are crucial to decoding the physical processes in the solar interior and their interplanetary effects. However, observations from older instruments, such as the Michelson Doppler Imager (MDI), have limited spatial or temporal resolution, which hinders the ability to study small-scale solar features in detail. Super resolving these older datasets is essential for uniform analysis across different solar cycles, enabling better characterization of solar flares, active regions, and magnetic network dynamics. In this work, we introduce a novel diffusion model approach for Super-Resolution and we apply it to MDI magnetograms to match the higher-resolution capabilities of the Helioseismic and Magnetic Imager (HMI). By training a Latent Diffusion Model (LDM) with residuals on downscaled HMI data and fine-tuning it with paired MDI/HMI data, we can enhance the resolution of MDI observations from 2’/pixel to 0.5’/pixel. We evaluate the quality of the reconstructed images by means of classical metrics (e.g., PSNR, SSIM, FID and LPIPS) and we check if physical properties, such as the unsigned magnetic flux or the size of an active region, are preserved. We compare our model with different variations of LDM and Denoising Diffusion Probabilistic models (DDPMs), but also with two deterministic architectures already used in the past for performing the Super-Resolution task. Furthermore, we show with an analysis in the Fourier domain that the LDM with residuals can resolve features smaller than 2′, and due to the probabilistic nature of the LDM, we can asses their reliability, in contrast with the deterministic models. Future studies aim to super-resolve the temporal scale of the solar MDI instrument so that we can also have a better overview of the dynamics of the old events.

arxiv情報

著者 Francesco Pio Ramunno,Paolo Massa,Vitaliy Kinakh,Brandon Panos,André Csillaghy,Slava Voloshynovskiy
発行日 2025-03-31 16:16:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: astro-ph.IM, astro-ph.SR, cs.LG | Enhancing Image Resolution of Solar Magnetograms: A Latent Diffusion Model Approach はコメントを受け付けていません

Fair Dynamic Spectrum Access via Fully Decentralized Multi-Agent Reinforcement Learning

要約

限られた数の直交周波数帯域を共有するいくつかのソース照明ペアを持つ分散型ワイヤレスネットワークを検討します。
情報筋は、互いに情報を共有せずに、時間の経過とともに、送信(具体的には、バンド選択戦略)を時間をかけて適応させることを学びます。
ソースは、ネットワークサイズや他のソースの伝送戦略の事前知識がないため、独自の送信の結果(つまり、成功または衝突)の結果のみを観察できます。
各ソースの目標は、ネットワーク全体の公平性を目指しながら、独自のスループットを最大化することです。
調整なしで公平性を達成する、完全に分散化された補強学習(RL)ベースのソリューションを提案します。
提案された公正シェアRL(FSRL)ソリューションは、次のとおりです。(i)半適応時間参照と状態増強。
(ii)リスク制御と時差の尤度を活用するアーキテクチャ。
(iii)公平性主導の報酬構造。
さまざまな数のエージェント、さまざまな量の利用可能なスペクトル、ジャマーの存在下、およびアドホック設定で50を超えるネットワーク設定でFSRLを評価します。
シミュレーション結果は、FSRLを文献の一般的なベースラインRLアルゴリズムと比較すると、FSRLがいくつかのソースと単一の周波数帯域を使用して、厳しい設定で最大89.0%(Jainの公平性指数で測定)、平均で48.1%のFirearになることを示唆しています。

要約(オリジナル)

We consider a decentralized wireless network with several source-destination pairs sharing a limited number of orthogonal frequency bands. Sources learn to adapt their transmissions (specifically, their band selection strategy) over time, in a decentralized manner, without sharing information with each other. Sources can only observe the outcome of their own transmissions (i.e., success or collision), having no prior knowledge of the network size or of the transmission strategy of other sources. The goal of each source is to maximize their own throughput while striving for network-wide fairness. We propose a novel fully decentralized Reinforcement Learning (RL)-based solution that achieves fairness without coordination. The proposed Fair Share RL (FSRL) solution combines: (i) state augmentation with a semi-adaptive time reference; (ii) an architecture that leverages risk control and time difference likelihood; and (iii) a fairness-driven reward structure. We evaluate FSRL in more than 50 network settings with different number of agents, different amounts of available spectrum, in the presence of jammers, and in an ad-hoc setting. Simulation results suggest that, when we compare FSRL with a common baseline RL algorithm from the literature, FSRL can be up to 89.0% fairer (as measured by Jain’s fairness index) in stringent settings with several sources and a single frequency band, and 48.1% fairer on average.

arxiv情報

著者 Yubo Zhang,Pedro Botelho,Trevor Gordon,Gil Zussman,Igor Kadota
発行日 2025-03-31 16:42:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NI | Fair Dynamic Spectrum Access via Fully Decentralized Multi-Agent Reinforcement Learning はコメントを受け付けていません

Solving the Best Subset Selection Problem via Suboptimal Algorithms

要約

線形回帰における最良のサブセット選択は、問題の次元が増加すると急速に増加するため、可能なサブセットの数が急速に増加するため、解決するのが容易ではなく、計算的に困難であることがよく知られています。
その結果、1000の寸法の問題のための正確な最適化方法を介してグローバルな最適ソリューションを見つけるには、非実用的な量のCPU時間がかかる場合があります。
これは、正確な方法よりもはるかに少ない計算努力を使用して、適切な近似ソリューションを提供できる最適ではない手順を見つけることの重要性を示唆しています。
この作業では、新しい手順を導入し、他の一般的な準最適アルゴリズムと比較して、最良のサブセット選択問題を解決します。
合成データと実際のデータを使用した広範な計算実験が実行されています。
結果は、さまざまなデータ設定でのこれらのメソッドのパフォーマンスに関する洞察を提供します。
新しい手順は、高次元データの最良のサブセット選択問題を解決するための競争力のある準最適アルゴリズムであることが観察されています。

要約(オリジナル)

Best subset selection in linear regression is well known to be nonconvex and computationally challenging to solve, as the number of possible subsets grows rapidly with increasing dimensionality of the problem. As a result, finding the global optimal solution via an exact optimization method for a problem with dimensions of 1000s may take an impractical amount of CPU time. This suggests the importance of finding suboptimal procedures that can provide good approximate solutions using much less computational effort than exact methods. In this work, we introduce a new procedure and compare it with other popular suboptimal algorithms to solve the best subset selection problem. Extensive computational experiments using synthetic and real data have been performed. The results provide insights into the performance of these methods in different data settings. The new procedure is observed to be a competitive suboptimal algorithm for solving the best subset selection problem for high-dimensional data.

arxiv情報

著者 Vikram Singh,Min Sun
発行日 2025-03-31 16:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65K05, 90C59, cs.LG, stat.ML | Solving the Best Subset Selection Problem via Suboptimal Algorithms はコメントを受け付けていません