A learning-based approach to stochastic optimal control under reach-avoid constraint

要約

リーチと回避の制約を受ける確率的でマルコフのシステムを最適に制御するためのモデルフリーのアプローチを開発します。
具体的には、状態の軌道は、有限時間の地平線内でターゲットセットに到達しながら、安全なセット内にとどまる必要があります。
これらの制約の時間依存性の性質により、一般に、この制約された確率制御問題の最適なポリシーは非マルコビアンであり、計算の複雑さが向上することを示します。
この課題に対処するために、Arxiv:2402.19360の状態増強技術を適用し、拡張状態空間に制約されたマルコフ決定プロセス(CMDP)として問題を再定式化します。
この変革により、マルコビアの政策を検索することができ、非マルコビアの政策の複雑さを回避できます。
システムモデルなしで最適なポリシーを学習し、軌道データのみを使用して、ログバリアのポリシーグラデーションアプローチを開発します。
適切な仮定の下で、ポリシーパラメーターが最適なパラメーターに収束し、システムの軌跡が高い確率で確率的リーチと回避の制約を満たすことを保証することを証明します。

要約(オリジナル)

We develop a model-free approach to optimally control stochastic, Markovian systems subject to a reach-avoid constraint. Specifically, the state trajectory must remain within a safe set while reaching a target set within a finite time horizon. Due to the time-dependent nature of these constraints, we show that, in general, the optimal policy for this constrained stochastic control problem is non-Markovian, which increases the computational complexity. To address this challenge, we apply the state-augmentation technique from arXiv:2402.19360, reformulating the problem as a constrained Markov decision process (CMDP) on an extended state space. This transformation allows us to search for a Markovian policy, avoiding the complexity of non-Markovian policies. To learn the optimal policy without a system model, and using only trajectory data, we develop a log-barrier policy gradient approach. We prove that under suitable assumptions, the policy parameters converge to the optimal parameters, while ensuring that the system trajectories satisfy the stochastic reach-avoid constraint with high probability.

arxiv情報

著者 Tingting Ni,Maryam Kamgarpour
発行日 2025-03-06 17:04:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | A learning-based approach to stochastic optimal control under reach-avoid constraint はコメントを受け付けていません

No Forgetting Learning: Memory-free Continual Learning

要約

継続的な学習(CL)は依然として深い学習の中心的な課題であり、モデルは以前のタスクの壊滅的な忘却(CF)を緩和しながら、新しい知識を順次獲得する必要があります。
既存のアプローチは、多くの場合、効率とスケーラビリティと格闘しており、広範なメモリまたはモデルバッファを必要とします。
この作業では、「忘れられない学習」(NFL)を紹介します。これは、可塑性を維持しながら安定性を維持するために知識の蒸留を活用するメモリフリーCLフレームワークです。
メモリフリーとは、NFLがメモリバッファーに依存しないことを意味します。
3つのベンチマークデータセットの広範な評価を通じて、NFLは最先端の方法よりも約14.75倍少ないメモリを利用しながら競争力のあるパフォーマンスを達成することを実証します。
さらに、CLの可塑性安定性トレードオフをより適切に評価するために、新しいメトリックを導入します。

要約(オリジナル)

Continual Learning (CL) remains a central challenge in deep learning, where models must sequentially acquire new knowledge while mitigating Catastrophic Forgetting (CF) of prior tasks. Existing approaches often struggle with efficiency and scalability, requiring extensive memory or model buffers. This work introduces “No Forgetting Learning’ (NFL), a memory-free CL framework that leverages knowledge distillation to maintain stability while preserving plasticity. Memory-free means the NFL does not rely on any memory buffer. Through extensive evaluations of three benchmark datasets, we demonstrate that NFL achieves competitive performance while utilizing approximately 14.75 times less memory than state-of-the-art methods. Furthermore, we introduce a new metric to better assess CL’s plasticity-stability trade-off.

arxiv情報

著者 Mohammad Ali Vahedifar,Qi Zhang
発行日 2025-03-06 17:25:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | No Forgetting Learning: Memory-free Continual Learning はコメントを受け付けていません

Joint Masked Reconstruction and Contrastive Learning for Mining Interactions Between Proteins

要約

タンパク質間相互作用(PPI)予測は、細胞操作の根底にあるメカニズムの解明における手段の手段であり、製薬開発と臨床治療の領域に大きな実際的な意味を保持しています。
現在、研究方法の大部分は主にアミノ酸配列の分析に集中していますが、タンパク質構造に基づいた調査は、調査の初期段階に残っています。
近年のいくつかの構造ベースのアルゴリズムの出現にもかかわらず、これらはまだ固有の課題に直面しています。(1)タンパク質の固有の構造情報の抽出は、通常、実質的な計算リソースの支出を必要とします。
(2)これらのモデルは、見られたタンパク質データに過度に依存しており、未知のタンパク質間の相互作用の手がかりを効果的に発掘するのに苦労しています。
このドメインの進歩をさらに推進するために、このペーパーでは、JMCPPIと呼ばれるマスクされた再構築と対照学習を結合する新しいPPI予測方法を紹介します。
この方法論は、PPI予測タスクを2つの異なる位相に分析します。残基構造エンコーディングフェーズ中に、JMCPPIは2つの特徴再構成タスクを考案し、グラフ注意メカニズムを使用して残基間の構造情報をキャプチャします。
タンパク質相互作用の推論段階で、JMCPPIは元のPPIグラフを抑制し、新規タンパク質の外因性相互作用情報を徹底的に採掘するためのマルチグラフ対照学習戦略を採用しています。
広く利用されている3つのPPIデータセットで実施された広範な実験は、JMCPPIがさまざまなデータパーティションスキームにわたって既存の最適なベースラインモデルを上回ることを示しています。
関連するコードは、https://github.com/lijfrank-open/jmcppiからアクセスできます。

要約(オリジナル)

Protein-protein interaction (PPI) prediction is an instrumental means in elucidating the mechanisms underlying cellular operations, holding significant practical implications for the realms of pharmaceutical development and clinical treatment. Presently, the majority of research methods primarily concentrate on the analysis of amino acid sequences, while investigations predicated on protein structures remain in the nascent stages of exploration. Despite the emergence of several structure-based algorithms in recent years, these are still confronted with inherent challenges: (1) the extraction of intrinsic structural information of proteins typically necessitates the expenditure of substantial computational resources; (2) these models are overly reliant on seen protein data, struggling to effectively unearth interaction cues between unknown proteins. To further propel advancements in this domain, this paper introduces a novel PPI prediction method jointing masked reconstruction and contrastive learning, termed JmcPPI. This methodology dissects the PPI prediction task into two distinct phases: during the residue structure encoding phase, JmcPPI devises two feature reconstruction tasks and employs graph attention mechanism to capture structural information between residues; during the protein interaction inference phase, JmcPPI perturbs the original PPI graph and employs a multi-graph contrastive learning strategy to thoroughly mine extrinsic interaction information of novel proteins. Extensive experiments conducted on three widely utilized PPI datasets demonstrate that JmcPPI surpasses existing optimal baseline models across various data partition schemes. The associated code can be accessed via https://github.com/lijfrank-open/JmcPPI.

arxiv情報

著者 Jiang Li,Xiaoping Wang
発行日 2025-03-06 17:39:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG | Joint Masked Reconstruction and Contrastive Learning for Mining Interactions Between Proteins はコメントを受け付けていません

CLDyB: Towards Dynamic Benchmarking for Continual Learning with Pre-trained Models

要約

財団モデルの時代の出現により、継続的な学習のための事前に訓練された表現を活用することにかなりの研究関心が高まり、標準的な評価ベンチマークに一連のトップパフォーマンスのCLメソッドが得られます。
それにもかかわらず、トレーニング前の段階での潜在的なデータ汚染に関する懸念が高まっています。
さらに、通常は静的な標準的な評価ベンチマークは、実際のCLシナリオの複雑さをキャプチャできず、パフォーマンスが飽和します。
これらの問題に対処するために、CLメソッドを確実に評価するためのマルコフ決定プロセスに基づいた一般的な計算フレームワークである動的ベンチマーク(CLDYB)でCLを説明します。
CLDYBは、特定のCLメソッドの本質的に困難でアルゴリズム依存性のタスクを動的に識別し、モンテカルロツリー検索を使用して挑戦的なタスクオーダーを決定します。
CLDYBを活用すると、最初に複数の最先端のCLメソッドの共同評価を実施し、既存のCLメソッドがパフォーマンスが低下する傾向がある一般的に挑戦的で一般化可能なタスクシーケンスのセットにつながります。
次に、CldyBを使用して個々のCLメソッドの個別の評価を実施し、それぞれの長所と短所を発見します。
ソースコードと生成されたタスクシーケンスは、https://github.com/szc12153/cldybで公開されます。

要約(オリジナル)

The advent of the foundation model era has sparked significant research interest in leveraging pre-trained representations for continual learning (CL), yielding a series of top-performing CL methods on standard evaluation benchmarks. Nonetheless, there are growing concerns regarding potential data contamination during the pre-training stage. Furthermore, standard evaluation benchmarks, which are typically static, fail to capture the complexities of real-world CL scenarios, resulting in saturated performance. To address these issues, we describe CL on dynamic benchmarks (CLDyB), a general computational framework based on Markov decision processes for evaluating CL methods reliably. CLDyB dynamically identifies inherently difficult and algorithm-dependent tasks for the given CL methods, and determines challenging task orders using Monte Carlo tree search. Leveraging CLDyB, we first conduct a joint evaluation of multiple state-of-the-art CL methods, leading to a set of commonly challenging and generalizable task sequences where existing CL methods tend to perform poorly. We then conduct separate evaluations of individual CL methods using CLDyB, discovering their respective strengths and weaknesses. The source code and generated task sequences are publicly accessible at https://github.com/szc12153/CLDyB.

arxiv情報

著者 Shengzhuang Chen,Yikai Liao,Xiaoxiao Sun,Kede Ma,Ying Wei
発行日 2025-03-06 17:49:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | CLDyB: Towards Dynamic Benchmarking for Continual Learning with Pre-trained Models はコメントを受け付けていません

Some Targets Are Harder to Identify than Others: Quantifying the Target-dependent Membership Leakage

要約

メンバーシップ推論(MI)ゲームでは、攻撃者がターゲットポイントがアルゴリズムの入力に含まれているかどうかを推測しようとします。
既存の作品は、いくつかのターゲットポイントが識別が容易であることを示していますが、他の作品はより困難です。
このペーパーでは、固定ターゲットMIゲームで最適な攻撃の力を研究することにより、メンバーシップ攻撃の目標依存性の硬度について説明します。
ターゲットポイントとデータ生成分布の間のマハラノビス距離の観点から、経験的平均に対する攻撃の最適な利点とトレードオフ機能を特徴付けます。
さらに、2つのプライバシー防御の影響、つまりガウスノイズとサブサンプリングの追加、および最適な攻撃に関するターゲットの誤りの影響を導き出します。
尤度比(LR)テストの新しい分析の副産物として、スカラー産物攻撃を一般化および改善する新しい共分散攻撃を提供します。
また、ホワイトボックスフェデレート学習環境でプライバシーを監査するための新しい最適なカナリアを選択する戦略を提案します。
私たちの実験では、マハラノビスのスコアが固定ターゲットMIゲームの硬度を説明していることを検証しています。

要約(オリジナル)

In a Membership Inference (MI) game, an attacker tries to infer whether a target point was included or not in the input of an algorithm. Existing works show that some target points are easier to identify, while others are harder. This paper explains the target-dependent hardness of membership attacks by studying the powers of the optimal attacks in a fixed-target MI game. We characterise the optimal advantage and trade-off functions of attacks against the empirical mean in terms of the Mahalanobis distance between the target point and the data-generating distribution. We further derive the impacts of two privacy defences, i.e. adding Gaussian noise and sub-sampling, and that of target misspecification on optimal attacks. As by-products of our novel analysis of the Likelihood Ratio (LR) test, we provide a new covariance attack which generalises and improves the scalar product attack. Also, we propose a new optimal canary-choosing strategy for auditing privacy in the white-box federated learning setting. Our experiments validate that the Mahalanobis score explains the hardness of fixed-target MI games.

arxiv情報

著者 Achraf Azize,Debabrota Basu
発行日 2025-03-06 18:17:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, math.ST, stat.ML, stat.TH | Some Targets Are Harder to Identify than Others: Quantifying the Target-dependent Membership Leakage はコメントを受け付けていません

The Last Iterate Advantage: Empirical Auditing and Principled Heuristic Analysis of Differentially Private SGD

要約

最後の反復のみが放出され、中間繰り返しが隠されたままである設定で、騒々しいクリップ確率勾配降下(DP-SGD)の単純なヒューリスティックプライバシー分析を提案します。
つまり、私たちのヒューリスティックは、モデルの線形構造を想定しています。
私たちのヒューリスティックは、さまざまなトレーニング手順に適用されるプライバシー監査の結果を予測していることを実験的に示します。
したがって、最終的なプライバシー漏れの大まかな見積もりとして、トレーニング前に使用できます。
また、プライバシーの漏れを過小評価するいくつかの人工的な反論を提供することにより、ヒューリスティックの制限を調査します。
DP-SGDの標準的な構成ベースのプライバシー分析は、敵がすべての中間反復液にアクセスできることを効果的に想定していますが、これはしばしば非現実的です。
ただし、この分析は実際に最先端の依然として存在しています。
私たちのヒューリスティックは厳密なプライバシー分析に取って代わるものではありませんが、最良の理論上の上限とプライバシー監査下限の間の大きなギャップを示し、理論的プライバシー分析を改善するためのさらなる作業の目標を設定します。
また、私たちのヒューリスティックを経験的にサポートし、既存のプライバシー監査攻撃がビジョンと言語の両方のタスクにおけるヒューリスティック分析によって制限されていることを示しています。

要約(オリジナル)

We propose a simple heuristic privacy analysis of noisy clipped stochastic gradient descent (DP-SGD) in the setting where only the last iterate is released and the intermediate iterates remain hidden. Namely, our heuristic assumes a linear structure for the model. We show experimentally that our heuristic is predictive of the outcome of privacy auditing applied to various training procedures. Thus it can be used prior to training as a rough estimate of the final privacy leakage. We also probe the limitations of our heuristic by providing some artificial counterexamples where it underestimates the privacy leakage. The standard composition-based privacy analysis of DP-SGD effectively assumes that the adversary has access to all intermediate iterates, which is often unrealistic. However, this analysis remains the state of the art in practice. While our heuristic does not replace a rigorous privacy analysis, it illustrates the large gap between the best theoretical upper bounds and the privacy auditing lower bounds and sets a target for further work to improve the theoretical privacy analyses. We also empirically support our heuristic and show existing privacy auditing attacks are bounded by our heuristic analysis in both vision and language tasks.

arxiv情報

著者 Thomas Steinke,Milad Nasr,Arun Ganesh,Borja Balle,Christopher A. Choquette-Choo,Matthew Jagielski,Jamie Hayes,Abhradeep Guha Thakurta,Adam Smith,Andreas Terzis
発行日 2025-03-06 18:20:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG | The Last Iterate Advantage: Empirical Auditing and Principled Heuristic Analysis of Differentially Private SGD はコメントを受け付けていません

Propagating Model Uncertainty through Filtering-based Probabilistic Numerical ODE Solvers

要約

ODEフィルターとしても知られる通常の微分方程式(ODE)のフィルタリングベースの確率数値ソルバーは、ODESの解の数値の不確実性を定量化する効率的な方法として確立されています。
ただし、実際のアプリケーションでは、基礎となる動的システムには不確実なパラメーターが含まれていることが多く、このモデルの不確実性がODEソリューションに伝播する必要があります。
この論文では、ODEフィルターは、確率的な性質にもかかわらず、この不確実性の伝播の問題を自動的に解決しないことを示しています。
この制限に対処するために、ODEフィルターと数値的四角化を組み合わせて、不確実なパラメーターを適切に疎外する一方で、パラメーターの不確実性と数値ソルバーの不確実性の両方を説明する新しいアプローチを提示します。
複数の動的システムの実験は、結果として生じる不確実性が参照ソリューションに密接に一致することを示しています。
特に、ODEソルバーからの数値の不確実性が、特に大きなステップサイズを使用する場合、伝播された不確実性の推定値の自信過剰を防ぐ方法を示します。
我々の結果は、確率的数値手法が動的システムの数値的不確実性とパラメトリックな不確実性の両方を効果的に定量化できることを示しています。

要約(オリジナル)

Filtering-based probabilistic numerical solvers for ordinary differential equations (ODEs), also known as ODE filters, have been established as efficient methods for quantifying numerical uncertainty in the solution of ODEs. In practical applications, however, the underlying dynamical system often contains uncertain parameters, requiring the propagation of this model uncertainty to the ODE solution. In this paper, we demonstrate that ODE filters, despite their probabilistic nature, do not automatically solve this uncertainty propagation problem. To address this limitation, we present a novel approach that combines ODE filters with numerical quadrature to properly marginalize over uncertain parameters, while accounting for both parameter uncertainty and numerical solver uncertainty. Experiments across multiple dynamical systems demonstrate that the resulting uncertainty estimates closely match reference solutions. Notably, we show how the numerical uncertainty from the ODE solver can help prevent overconfidence in the propagated uncertainty estimates, especially when using larger step sizes. Our results illustrate that probabilistic numerical methods can effectively quantify both numerical and parametric uncertainty in dynamical systems.

arxiv情報

著者 Dingling Yao,Filip Tronarp,Nathanael Bosch
発行日 2025-03-06 18:26:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, stat.ML | Propagating Model Uncertainty through Filtering-based Probabilistic Numerical ODE Solvers はコメントを受け付けていません

Compositional World Knowledge leads to High Utility Synthetic data

要約

機械学習システムは、亜集団シフトの下で、堅牢性と闘っています。
この問題は、トレーニング中に属性の組み合わせのサブセットのみが観察されるシナリオで特に顕著になります – 組成シフトと呼ばれる重度の亜集団シフトの形態。
この問題に対処するために、次の質問をします。すべての可能な属性の組み合わせにまたがる合成データのトレーニングによって堅牢性を改善できますか?
最初に、限られたデータ上の条件拡散モデルのトレーニングが根本的な分布が誤っていることを示しています。
したがって、そのようなモデルからサンプリングされた合成データは、不誠実なサンプルをもたらし、下流の機械学習システムのパフォーマンスを改善することはありません。
この問題に対処するために、フィッシャーの共同分布と限界分布の間の相違を最小限に抑えることにより、条件付きの独立性を強制することにより、世界の構成の性質を反映するように協調することを提案します。
Coindによって生成された合成データは忠実であり、これはCelebaの構成シフトタスクに関する最新の最悪のグループの精度につながることを実証します。

要約(オリジナル)

Machine learning systems struggle with robustness, under subpopulation shifts. This problem becomes especially pronounced in scenarios where only a subset of attribute combinations is observed during training -a severe form of subpopulation shift, referred as compositional shift. To address this problem, we ask the following question: Can we improve the robustness by training on synthetic data, spanning all possible attribute combinations? We first show that training of conditional diffusion models on limited data lead to incorrect underlying distribution. Therefore, synthetic data sampled from such models will result in unfaithful samples and does not lead to improve performance of downstream machine learning systems. To address this problem, we propose CoInD to reflect the compositional nature of the world by enforcing conditional independence through minimizing Fisher’s divergence between joint and marginal distributions. We demonstrate that synthetic data generated by CoInD is faithful and this translates to state-of-the-art worst-group accuracy on compositional shift tasks on CelebA.

arxiv情報

著者 Sachit Gaudi,Gautam Sreekumar,Vishnu Boddeti
発行日 2025-03-06 18:29:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Compositional World Knowledge leads to High Utility Synthetic data はコメントを受け付けていません

RAAD-LLM: Adaptive Anomaly Detection Using LLMs and RAG Integration

要約

複雑な産業環境での異常検出は、特にデータスパース性と進化する運用条件を特徴とするコンテキストで、独自の課題をもたらします。
このような設定での予測メンテナンス(PDM)は、ドメイン固有の知識を統合できる適応性があり、移転可能で、導入可能な方法論を要求します。
このホワイトペーパーでは、検索された生成(RAG)と統合された大規模な言語モデル(LLM)を活用する適応異常検出の新しいフレームワークであるRaad-llmを紹介します。
このアプローチは、前述のPDMの課題に対処します。
ドメイン固有の知識を効果的に利用することにより、RAAD-LLMは、特定のデータセットで微調整することなく、時系列データの異常の検出を強化します。
フレームワークの適応性メカニズムにより、通常の動作条件の理解を動的に調整できるため、検出の精度が向上します。
プラスチック製造プラントとSkoltech Anomaly Benchmark(SKAB)の実世界のアプリケーションを通じて、この方法論を検証します。
結果は、以前のモデルよりも大幅な改善が示され、実世界のデータセットで精度が70.7%から89.1%に増加します。
Semanticsで入力シリーズデータを濃縮することを許可することにより、Raad-llmは、モデルとプラント演算子の間のより協調的な意思決定を促進するマルチモーダル機能を組み込みます。
全体として、我々の調査結果は、PDMの異常検出方法論に革命をもたらすRaad-llmの能力をサポートし、潜在的にさまざまな業界で異常検出がどのように実装されるかのパラダイムシフトにつながります。

要約(オリジナル)

Anomaly detection in complex industrial environments poses unique challenges, particularly in contexts characterized by data sparsity and evolving operational conditions. Predictive maintenance (PdM) in such settings demands methodologies that are adaptive, transferable, and capable of integrating domain-specific knowledge. In this paper, we present RAAD-LLM, a novel framework for adaptive anomaly detection, leveraging large language models (LLMs) integrated with Retrieval-Augmented Generation (RAG). This approach addresses the aforementioned PdM challenges. By effectively utilizing domain-specific knowledge, RAAD-LLM enhances the detection of anomalies in time series data without requiring fine-tuning on specific datasets. The framework’s adaptability mechanism enables it to adjust its understanding of normal operating conditions dynamically, thus increasing detection accuracy. We validate this methodology through a real-world application for a plastics manufacturing plant and the Skoltech Anomaly Benchmark (SKAB). Results show significant improvements over our previous model with an accuracy increase from 70.7% to 89.1% on the real-world dataset. By allowing for the enriching of input series data with semantics, RAAD-LLM incorporates multimodal capabilities that facilitate more collaborative decision-making between the model and plant operators. Overall, our findings support RAAD-LLM’s ability to revolutionize anomaly detection methodologies in PdM, potentially leading to a paradigm shift in how anomaly detection is implemented across various industries.

arxiv情報

著者 Alicia Russell-Gilbert,Sudip Mittal,Shahram Rahimi,Maria Seale,Joseph Jabour,Thomas Arnold,Joshua Church
発行日 2025-03-06 18:30:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 1.6.5, cs.CE, cs.LG | RAAD-LLM: Adaptive Anomaly Detection Using LLMs and RAG Integration はコメントを受け付けていません

Coarse graining and reduced order models for plume ejection dynamics

要約

汚染物質の大気分散を監視することは、環境影響評価にとってますます重要になっています。
多くの場合、高忠実度の計算モデルがプルームのダイナミクスをシミュレートし、意思決定を導き、リソースの展開を優先順位付けするために採用されています。
ただし、そのようなモデルは、微細な空間的および時間的解像度で乱流の流れを解決する必要があるため、シミュレートするのに非常に高価になる可能性があります。
さらに、プルームには少なくとも2つの異なる動的な関心のある動的領域があります。(i)乱流のケルビン – ヘルムホルツの不安定性によって乱流混合が生成されるプルームの初期放出、および(ii)しばしばガウスプルームモデルによってモデル化されるその後の乱流拡散と進歩。
最初のプルーム生成をモデル化するという課題に対処します。
具体的には、ビデオデータから直接プルームダイナミクスの低秩序分析モデルを識別するデータ駆動型フレームワークを提案します。
ビデオスナップショットからプルームセンターの時系列とエッジポイントを抽出し、外挿パフォーマンスに基づいたさまざまな回帰を評価して、プルームの全体的な方向と広がりを特徴付ける一連の係数を生成します。
プルームの分散と渦を識別するために、エッジポイントのケルビンヘルムホルツの不安定性に触発された正弦波モデルに退行します。
全体として、この縮小順序モデリングフレームワークは、データ駆動型で軽量なアプローチを提供し、初期の非線形ポイントソースプルームダイナミクスの支配的な特徴をキャプチャします。
得られたモデルは、ガウスプルームモデルなどの標準モデルの前のモデルであり、メタン漏れ、化学的流出、スモークスタックからの汚染物質分散などの重要な環境危険の迅速な評価と評価を可能にする可能性があります。

要約(オリジナル)

Monitoring the atmospheric dispersion of pollutants is increasingly critical for environmental impact assessments. High-fidelity computational models are often employed to simulate plume dynamics, guiding decision-making and prioritizing resource deployment. However, such models can be prohibitively expensive to simulate, as they require resolving turbulent flows at fine spatial and temporal resolutions. Moreover, there are at least two distinct dynamical regimes of interest in the plume: (i) the initial ejection of the plume where turbulent mixing is generated by the shear-driven Kelvin-Helmholtz instability, and (ii) the ensuing turbulent diffusion and advection which is often modeled by the Gaussian plume model. We address the challenge of modeling the initial plume generation. Specifically, we propose a data-driven framework that identifies a reduced-order analytical model for plume dynamics — directly from video data. We extract a time series of plume center and edge points from video snapshots and evaluate different regressions based to their extrapolation performance to generate a time series of coefficients that characterize the plume’s overall direction and spread. We regress to a sinusoidal model inspired by the Kelvin-Helmholtz instability for the edge points in order to identify the plume’s dispersion and vorticity. Overall, this reduced-order modeling framework provides a data-driven and lightweight approach to capture the dominant features of the initial nonlinear point-source plume dynamics, agnostic to plume type and starting only from video. The resulting model is a pre-cursor to standard models such as the Gaussian plume model and has the potential to enable rapid assessment and evaluation of critical environmental hazards, such as methane leaks, chemical spills, and pollutant dispersal from smokestacks.

arxiv情報

著者 Ike Griss Salas,Megan R. Ebers,Jake Stevens-Haas,J. Nathan Kutz
発行日 2025-03-06 18:32:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math-ph, math.MP, physics.flu-dyn | Coarse graining and reduced order models for plume ejection dynamics はコメントを受け付けていません