Traversability-aware path planning in dynamic environments

要約

障害物を動かす環境での計画は、ロボット工学における重要な課題のままです。
多くの作業は、障害物密度の高いスペースでのナビゲーションとパス計画に焦点を当てていますが、そのような混雑した領域を横断することは、代替ルートを選択することで回避できることがよくあります。
このホワイトペーパーでは、動的環境のパスを計算し、混雑した地域を避けるパス計画方法であるTraversability-Aware FMM(TR-FMM)を紹介します。
この方法は2つのステップで動作します。まず、環境を離散化し、領域とその分布を識別します。
第二に、障害物のリスクと目標偏差の両方を最小限に抑えることを目指して、地域の通過性を計算します。
その後、パスは、より高い移動性のある領域を介して波面を伝播することによって計算されます。
シミュレートされた現実世界の実験は、このアプローチが障害のある地域からロボットを遠ざけながら、目標から不必要な逸脱を減らすことにより、大幅な安全性を高めることを示しています。

要約(オリジナル)

Planning in environments with moving obstacles remains a significant challenge in robotics. While many works focus on navigation and path planning in obstacle-dense spaces, traversing such congested regions is often avoidable by selecting alternative routes. This paper presents Traversability-aware FMM (Tr-FMM), a path planning method that computes paths in dynamic environments, avoiding crowded regions. The method operates in two steps: first, it discretizes the environment, identifying regions and their distribution; second, it computes the traversability of regions, aiming to minimize both obstacle risks and goal deviation. The path is then computed by propagating the wavefront through regions with higher traversability. Simulated and real-world experiments demonstrate that the approach enhances significant safety by keeping the robot away from regions with obstacles while reducing unnecessary deviations from the goal.

arxiv情報

著者 Yaroslav Marchukov,Luis Montano
発行日 2025-05-20 16:38:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Traversability-aware path planning in dynamic environments はコメントを受け付けていません

Time to Embed: Unlocking Foundation Models for Time Series with Channel Descriptions

要約

従来の時系列モデルはタスク固有であり、多くの場合、データセット固有のトレーニングと広範な機能エンジニアリングに依存します。
トランスベースのアーキテクチャはスケーラビリティを改善しましたが、テキスト、ビジョン、オーディオが一般的な基礎モデルは、時系列のために採用されていないままであり、主に予測に限定されています。
共有、転送、ドメイン対応の表現を学習する多変量時系列の基礎埋め込みモデルである$ \ textBf {charm} $を紹介します。
時系列の基礎学習のユニークな困難に対処するために、$ \ textbf {charm} $には、チャネルレベルのテキストの説明を統合しながら、順序を不変のままにします。
このモデルは、新しい増強スキームと解釈可能性とトレーニングの安定性を改善するために設計された損失関数を使用して、共同埋め込み予測アーキテクチャ(JEPA)を使用してトレーニングされています。
当社の$ 7 $ Mパラメーターモデルは、多様なダウンストリームタスク全体で最先端のパフォーマンスを実現し、時系列表現学習のための新しいベンチマークを設定します。

要約(オリジナル)

Traditional time series models are task-specific and often depend on dataset-specific training and extensive feature engineering. While Transformer-based architectures have improved scalability, foundation models, commonplace in text, vision, and audio, remain under-explored for time series and are largely restricted to forecasting. We introduce $\textbf{CHARM}$, a foundation embedding model for multivariate time series that learns shared, transferable, and domain-aware representations. To address the unique difficulties of time series foundation learning, $\textbf{CHARM}$ incorporates architectural innovations that integrate channel-level textual descriptions while remaining invariant to channel order. The model is trained using a Joint Embedding Predictive Architecture (JEPA), with novel augmentation schemes and a loss function designed to improve interpretability and training stability. Our $7$M-parameter model achieves state-of-the-art performance across diverse downstream tasks, setting a new benchmark for time series representation learning.

arxiv情報

著者 Utsav Dutta,Sina Khoshfetrat Pakazad,Henrik Ohlsson
発行日 2025-05-20 15:58:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Time to Embed: Unlocking Foundation Models for Time Series with Channel Descriptions はコメントを受け付けていません

Self-Supervised Frameworks for Speaker Verification via Bootstrapped Positive Sampling

要約

自己学習学習(SSL)の最近の開発は、スピーカー検証(SV)の重要な可能性を実証していますが、監視されたシステムでパフォーマンスギャップを埋めることは継続的な課題です。
標準のSSLフレームワークは、同じオーディオ発話から抽出されたアンカー陽性ペアに依存しています。
したがって、陽性は、広範なデータが増加する場合でも、対応するアンカーのチャネル特性と同様のチャネル特性を持っています。
したがって、この肯定的なサンプリング戦略は、学習された表現の記録ソースに関する情報が多すぎるため、基本的な制限です。
この記事では、SVのSSLフレームワークで適切かつ多様な陽性をサンプリングするためのブートストラップされた手法である、自己監視された陽性サンプリング(SSPS)を紹介します。
SSPSは、これらの擬似陽性が同じスピーカーのアイデンティティに属しますが、異なる記録条件に対応するという仮定の下で、表現空間のアンカーに近い陽性をサンプリングします。
この方法は、SIMCLR、SWAV、Vicreg、Dinoなどの主要なSSLフレームワークに実装された場合、VoxceleBベンチマークのSVパフォーマンスの一貫した改善を示しています。
SSPS、SIMCLR、およびDINOを使用して、VoxceleB1-Oで2.57%および2.53%EERを達成しました。
SIMCLRは、EERが58%相対的な減少をもたらし、よりシンプルなトレーニングフレームワークでDinoに匹敵するパフォーマンスを獲得します。
さらに、SSPはクラス内の分散を低下させ、データの高度なしでより大きな堅牢性を示しながら、スピーカー表現のチャネル情報を減らします。

要約(オリジナル)

Recent developments in Self-Supervised Learning (SSL) have demonstrated significant potential for Speaker Verification (SV), but closing the performance gap with supervised systems remains an ongoing challenge. Standard SSL frameworks rely on anchor-positive pairs extracted from the same audio utterances. Hence, positives have channel characteristics similar to those of their corresponding anchors, even with extensive data-augmentation. Therefore, this positive sampling strategy is a fundamental limitation as it encodes too much information regarding the recording source in the learned representations. This article introduces Self-Supervised Positive Sampling (SSPS), a bootstrapped technique for sampling appropriate and diverse positives in SSL frameworks for SV. SSPS samples positives close to their anchor in the representation space, under the assumption that these pseudo-positives belong to the same speaker identity but correspond to different recording conditions. This method demonstrates consistent improvements in SV performance on VoxCeleb benchmarks when implemented in major SSL frameworks, such as SimCLR, SwAV, VICReg, and DINO. Using SSPS, SimCLR, and DINO achieve 2.57% and 2.53% EER on VoxCeleb1-O. SimCLR yields a 58% relative reduction in EER, getting comparable performance to DINO with a simpler training framework. Furthermore, SSPS lowers intra-class variance and reduces channel information in speaker representations while exhibiting greater robustness without data-augmentation.

arxiv情報

著者 Theo Lepage,Reda Dehak
発行日 2025-05-20 16:14:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SD, eess.AS | Self-Supervised Frameworks for Speaker Verification via Bootstrapped Positive Sampling はコメントを受け付けていません

Performance Optimization of Energy-Harvesting Underlay Cognitive Radio Networks Using Reinforcement Learning

要約

この論文では、認知無線ネットワーク(CRN)のパフォーマンスを最大化するために、強化学習技術を採用しています。
プライマリユーザー(PU)の存在下では、2人のセカンダリユーザー(SUS)がアンダーレイモード内でライセンスバンドにアクセスすると推定されます。
さらに、SU送信機は、意図した目的地に信号を送信するためにエネルギーを収穫する必要があるエネルギー制約のデバイスであると想定されています。
したがって、私たちは2つの主要なエネルギー源があることを提案します。
PUSの送信と周囲無線周波数(RF)ソースの干渉。
SUは、PUSからエネルギーを収集するか、所定のしきい値に基づいて周囲のソースからのみを収集するかを選択します。
PUSのメッセージからのエネルギー収穫のプロセスは、時間の切り替えアプローチによって達成されます。
さらに、ディープQネットワーク(DQN)アプローチに基づいて、SUトランスミッターは、各タイムスロット中にエネルギーを収集するか、メッセージを送信するかを決定し、平均データレートを最大化するために適切な伝送電力を選択します。
私たちのアプローチは、ベースライン戦略よりも優れており、調査結果に示されているように収束します。

要約(オリジナル)

In this paper, a reinforcement learning technique is employed to maximize the performance of a cognitive radio network (CRN). In the presence of primary users (PUs), it is presumed that two secondary users (SUs) access the licensed band within underlay mode. In addition, the SU transmitter is assumed to be an energy-constrained device that requires harvesting energy in order to transmit signals to their intended destination. Therefore, we propose that there are two main sources of energy; the interference of PUs’ transmissions and ambient radio frequency (RF) sources. The SU will select whether to gather energy from PUs or only from ambient sources based on a predetermined threshold. The process of energy harvesting from the PUs’ messages is accomplished via the time switching approach. In addition, based on a deep Q-network (DQN) approach, the SU transmitter determines whether to collect energy or transmit messages during each time slot as well as selects the suitable transmission power in order to maximize its average data rate. Our approach outperforms a baseline strategy and converges, as shown by our findings.

arxiv情報

著者 Deemah H. Tashman,Soumaya Cherkaoui,Walaa Hamouda
発行日 2025-05-20 16:38:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Performance Optimization of Energy-Harvesting Underlay Cognitive Radio Networks Using Reinforcement Learning はコメントを受け付けていません

High-Dimensional Analysis of Bootstrap Ensemble Classifiers

要約

ブートストラップの方法は、長い間、機械学習におけるアンサンブル学習の基礎でした。
このホワイトペーパーでは、大規模で成長するサンプルサイズと特徴的な寸法のコンテキストで、最小二乗サポートベクターマシン(LSSVM)アンサンブルに適用されるブートストラップ技術の理論分析を示します。
ランダムマトリックス理論からツールを活用すると、それぞれがデータの異なるサブセットでトレーニングされている複数の弱い分類子から決定機能を集約するこの分類器のパフォーマンスを調査します。
高次元の設定でのブートストラップメソッドの使用に関する洞察を提供し、その影響の理解を高めます。
これらの調査結果に基づいて、サブセットの数とLSSVMのパフォーマンスを最大化する正規化パラメーターを選択する戦略を提案します。
合成および現実世界のデータセットに関する経験的実験は、理論的な結果を検証します。

要約(オリジナル)

Bootstrap methods have long been a cornerstone of ensemble learning in machine learning. This paper presents a theoretical analysis of bootstrap techniques applied to the Least Square Support Vector Machine (LSSVM) ensemble in the context of large and growing sample sizes and feature dimensionalities. Leveraging tools from Random Matrix Theory, we investigate the performance of this classifier that aggregates decision functions from multiple weak classifiers, each trained on different subsets of the data. We provide insights into the use of bootstrap methods in high-dimensional settings, enhancing our understanding of their impact. Based on these findings, we propose strategies to select the number of subsets and the regularization parameter that maximize the performance of the LSSVM. Empirical experiments on synthetic and real-world datasets validate our theoretical results.

arxiv情報

著者 Hamza Cherkaoui,Malik Tiomoko,Mohamed El Amine Seddik,Cosme Louart,Ekkehard Schnoor,Balazs Kegl
発行日 2025-05-20 16:40:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | High-Dimensional Analysis of Bootstrap Ensemble Classifiers はコメントを受け付けていません

Adaptive Pruning of Deep Neural Networks for Resource-Aware Embedded Intrusion Detection on the Edge

要約

人工ニューラルネットワーク剪定は、ネットワークの予測機能を維持しようとしながら、人工ニューラルネットワークサイズを削減できる方法です。
これは、推論時間中にモデルを小さくまたは速くするために行われます。
この作業では、設計されているよりも単純なネットワークタイプを利用して、新しいサイバーセキュリティデータセットに一般化するための人工ニューラルネットワーク剪定方法の選択能力を分析します。
さまざまな剪定度を使用して各方法を分析し、各アルゴリズムが新しい環境にどのように反応するかを最もよく理解します。
これにより、タスクを検索したものの最も適切な剪定方法を決定することができました。
予想外に、それらの多くは問題によく一般化しないことを発見しました。

要約(オリジナル)

Artificial neural network pruning is a method in which artificial neural network sizes can be reduced while attempting to preserve the predicting capabilities of the network. This is done to make the model smaller or faster during inference time. In this work we analyze the ability of a selection of artificial neural network pruning methods to generalize to a new cybersecurity dataset utilizing a simpler network type than was designed for. We analyze each method using a variety of pruning degrees to best understand how each algorithm responds to the new environment. This has allowed us to determine the most well fit pruning method of those we searched for the task. Unexpectedly, we have found that many of them do not generalize to the problem well, leaving only a few algorithms working to an acceptable degree.

arxiv情報

著者 Alexandre Broggi,Nathaniel Bastian,Lance Fiondella,Gokhan Kul
発行日 2025-05-20 16:45:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG | Adaptive Pruning of Deep Neural Networks for Resource-Aware Embedded Intrusion Detection on the Edge はコメントを受け付けていません

Physics-informed Reduced Order Modeling of Time-dependent PDEs via Differentiable Solvers

要約

時間依存性およびパラメーター化された微分方程式の縮小順序モデリング(ROM)は、溶液フィールドの特性とその時間依存のダイナミクスをキャプチャするコンパクトな潜在マニホールド表現を学習することにより、複雑な高次元システムのシミュレーションを加速することを目的としています。
高忠実度の数値ソルバーはトレーニングデータセットを生成しますが、これまでトレーニングプロセスから除外されており、学習した潜在的ダイナミクスが離散化された管理物理学から離れて漂流しています。
この不一致により、一般化と予測機能が制限されることがよくあります。
この作業では、微分可能なPDEソルバーをトレーニング手順に組み込むことにより、物理学に基づいたROM($ \ phi $ -ROM)を提案します。
具体的には、潜在的な空間ダイナミクスとPDEパラメーターへの依存性は、ソルバーにエンコードされた支配物理学によって直接形作られ、完全なシステムと縮小システムの間の強い対応を確保します。
私たちのモデルは、目に見えないパラメーターから生じる新しいダイナミクスに正確に一般化し、トレーニング期間を超えて長期予測を可能にし、時間と空間の両方の連続性を維持し、データコストを削減することにより、最先端のデータ駆動型ROMやその他の物理学に基づいた戦略を上回ります。
さらに、$ \ phi $ -ROMは、フィールドのまばらで不規則な観測で訓練または評価された場合でも、ソリューションフィールドの回復と予測を学び、フィールドの再構成とデータ同化の柔軟なフレームワークを提供します。
さまざまなPDEソルバーにわたるフレームワークの堅牢性を示し、他のPDEシステムや微分可能なソルバーに容易に拡張できるオープンソースJAX実装を提供することにより、その幅広い適用性を強調します。

要約(オリジナル)

Reduced-order modeling (ROM) of time-dependent and parameterized differential equations aims to accelerate the simulation of complex high-dimensional systems by learning a compact latent manifold representation that captures the characteristics of the solution fields and their time-dependent dynamics. Although high-fidelity numerical solvers generate the training datasets, they have thus far been excluded from the training process, causing the learned latent dynamics to drift away from the discretized governing physics. This mismatch often limits generalization and forecasting capabilities. In this work, we propose Physics-informed ROM ($\Phi$-ROM) by incorporating differentiable PDE solvers into the training procedure. Specifically, the latent space dynamics and its dependence on PDE parameters are shaped directly by the governing physics encoded in the solver, ensuring a strong correspondence between the full and reduced systems. Our model outperforms state-of-the-art data-driven ROMs and other physics-informed strategies by accurately generalizing to new dynamics arising from unseen parameters, enabling long-term forecasting beyond the training horizon, maintaining continuity in both time and space, and reducing the data cost. Furthermore, $\Phi$-ROM learns to recover and forecast the solution fields even when trained or evaluated with sparse and irregular observations of the fields, providing a flexible framework for field reconstruction and data assimilation. We demonstrate the framework’s robustness across different PDE solvers and highlight its broad applicability by providing an open-source JAX implementation readily extensible to other PDE systems and differentiable solvers.

arxiv情報

著者 Nima Hosseini Dashtbayaz,Hesam Salehipour,Adrian Butscher,Nigel Morris
発行日 2025-05-20 16:47:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Physics-informed Reduced Order Modeling of Time-dependent PDEs via Differentiable Solvers はコメントを受け付けていません

CSTS: A Benchmark for the Discovery of Correlation Structures in Time Series Clustering

要約

時系列のクラスタリングは、ヘルスケア、財務、産業システム、およびその他の重要なドメイン全体のアプリケーションを使用して、データの隠された構造パターンを明らかにすることを約束します。
ただし、検証されたグラウンドトゥルース情報がなければ、研究者はクラスタリング品質を客観的に評価したり、データに存在しない構造に起因する結果、または不適切な検証方法に起因するかどうかを判断することはできません。
これらの課題に対処するために、多変量時系列データの相関構造の発見を評価するための合成ベンチマークであるCST(時系列の相関構造)を導入します。
CSTSは、研究者が相関構造の劣化とクラスタリングアルゴリズムと検証方法の制限を区別することにより、クラスタリング障害の特定の原因を分離および特定できるようにするクリーンなベンチマークを提供します。
私たちの貢献は次のとおりです。(1)異なる相関構造、体系的に変化するデータ条件、確立されたパフォーマンスしきい値、および推奨される評価プロトコルを伴う相関構造の発見の包括的なベンチマーク。
(2)ダウンサンプリングから中程度の歪みと分布シフトとスパース化からの最小限の影響を示す相関構造の保存の経験的検証。
(3)構造ファーストクラスタリング評価を可能にする拡張可能なデータ生成フレームワーク。
ケーススタディでは、アルゴリズムの以前は非正規分布に対する文書化されていない感受性を特定することにより、CSTSの実用性を示しており、ベンチマークが方法論的制限の正確な診断を可能にする方法を示しています。
CSTSは、相関ベースの時系列クラスタリングの厳格な評価基準を進めています。

要約(オリジナル)

Time series clustering promises to uncover hidden structural patterns in data with applications across healthcare, finance, industrial systems, and other critical domains. However, without validated ground truth information, researchers cannot objectively assess clustering quality or determine whether poor results stem from absent structures in the data, algorithmic limitations, or inappropriate validation methods, raising the question whether clustering is ‘more art than science’ (Guyon et al., 2009). To address these challenges, we introduce CSTS (Correlation Structures in Time Series), a synthetic benchmark for evaluating the discovery of correlation structures in multivariate time series data. CSTS provides a clean benchmark that enables researchers to isolate and identify specific causes of clustering failures by differentiating between correlation structure deterioration and limitations of clustering algorithms and validation methods. Our contributions are: (1) a comprehensive benchmark for correlation structure discovery with distinct correlation structures, systematically varied data conditions, established performance thresholds, and recommended evaluation protocols; (2) empirical validation of correlation structure preservation showing moderate distortion from downsampling and minimal effects from distribution shifts and sparsification; and (3) an extensible data generation framework enabling structure-first clustering evaluation. A case study demonstrates CSTS’s practical utility by identifying an algorithm’s previously undocumented sensitivity to non-normal distributions, illustrating how the benchmark enables precise diagnosis of methodological limitations. CSTS advances rigorous evaluation standards for correlation-based time series clustering.

arxiv情報

著者 Isabella Degen,Zahraa S Abdallah,Henry W J Reeve,Kate Robson Brown
発行日 2025-05-20 16:48:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 62-11, 62H20, 62H30, 62M10, 68T10, cs.LG, G.3, stat.ML | CSTS: A Benchmark for the Discovery of Correlation Structures in Time Series Clustering はコメントを受け付けていません

Sequential Kernelized Independence Testing

要約

独立性テストは、データを収集する前にサンプルサイズを修正するときにバッチ設定で広く研究されている古典的な統計的問題です。
ただし、実務家は、事前にサンプルサイズを設定する代わりに、手元の問題の複雑さに適応する手順を好むことがよくあります。
理想的には、そのような手順は、(a)簡単なタスク(そして後で難しいタスクで)で停止するため、利用可能なリソースをよりよく利用し、(b)誤ったアラームレートを制御しながら、データを継続的に監視し、新しいデータを収集した後に統計的証拠を効率的に組み込む必要があります。
古典的なバッチテストは、データのストリーミングに合わせて調整されていません。データの覗き見後の有効な推論では、低電力をもたらす複数のテストの修正が必要です。
賭けによるテストの原則に従って、そのような欠点を克服する順次核の独立性テストを設計します。
Kernelizedの依存測定に触発されたBETを使用して、幅広いフレームワークを例示しています。たとえば、Hilbert-Schmidt独立基準。
私たちのテストは、noni.i.d。、時変設定の下でも有効です。
シミュレートされたデータと実際のデータの両方でアプローチの力を示します。

要約(オリジナル)

Independence testing is a classical statistical problem that has been extensively studied in the batch setting when one fixes the sample size before collecting data. However, practitioners often prefer procedures that adapt to the complexity of a problem at hand instead of setting sample size in advance. Ideally, such procedures should (a) stop earlier on easy tasks (and later on harder tasks), hence making better use of available resources, and (b) continuously monitor the data and efficiently incorporate statistical evidence after collecting new data, while controlling the false alarm rate. Classical batch tests are not tailored for streaming data: valid inference after data peeking requires correcting for multiple testing which results in low power. Following the principle of testing by betting, we design sequential kernelized independence tests that overcome such shortcomings. We exemplify our broad framework using bets inspired by kernelized dependence measures, e.g., the Hilbert-Schmidt independence criterion. Our test is also valid under non-i.i.d., time-varying settings. We demonstrate the power of our approaches on both simulated and real data.

arxiv情報

著者 Aleksandr Podkopaev,Patrick Blöbaum,Shiva Prasad Kasiviswanathan,Aaditya Ramdas
発行日 2025-05-20 16:51:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Sequential Kernelized Independence Testing はコメントを受け付けていません

Electrostatics from Laplacian Eigenbasis for Neural Network Interatomic Potentials

要約

ニューラルネットワーク間の潜在的ポテンシャルの最近の進歩は、有望な研究方向として浮上しています。
ただし、人気のある深い学習モデルには、物理​​的法則に基づいた補助的制約が欠けていることが多く、物理ベースの正則化を通じてトレーニングを加速し、忠実度を向上させる可能性があります。
この作業では、メッセージパスフレームワーク内でポアソンの方程式を強制して、自己監視方法で静電相互作用を学習するユニバーサルプラグインモジュールである$ \ phi $ -moduleを紹介します。
具体的には、それぞれの原子ごとの表現は、離散化されたポアソンの方程式を満たすように奨励されており、潜在的な$ \ boldsymbol {\ phi} $と、学習可能なラプラシアンアイゲンバシスの分子科学科学体にリンクされた対応する電荷密度$ \ boldsymbol {\ rho} $を取得することが可能になります。
次に、総エネルギー予測を改善するために重要な静電エネルギー用語を導き出します。
このアプローチは、取るに足らない計算オーバーヘッドで既存の神経ポテンシャルにシームレスに統合されます。
OE62およびMD22のベンチマークでの実験では、モデルと$ \ phi $ -moduleがベースラインの対応物にわたって堅牢な改善を達成することが確認されています。
OE62の場合、エラー削減の範囲は4.5 \%から17.8 \%の範囲であり、MD22の場合、$ \ Phi $ -Moduleを装備したベースラインでは、14ケースのうち5症例で最高の結果を達成します。
私たちの結果は、神経原子間のポテンシャルに第一原理的制約を埋め込むことで、ハイパーパラメーターに優しい、メモリ効率が高く、トレーニングの軽量でありながら、パフォーマンスを大幅に改善できることを強調しています。
コードは\ href {https://github.com/dunnolab/phi-module} {dunnolab/phi-module}で利用できます。

要約(オリジナル)

Recent advances in neural network interatomic potentials have emerged as a promising research direction. However, popular deep learning models often lack auxiliary constraints grounded in physical laws, which could accelerate training and improve fidelity through physics-based regularization. In this work, we introduce $\Phi$-Module, a universal plugin module that enforces Poisson’s equation within the message-passing framework to learn electrostatic interactions in a self-supervised manner. Specifically, each atom-wise representation is encouraged to satisfy a discretized Poisson’s equation, making it possible to acquire a potential $\boldsymbol{\phi}$ and a corresponding charge density $\boldsymbol{\rho}$ linked to the learnable Laplacian eigenbasis coefficients of a given molecular graph. We then derive an electrostatic energy term, crucial for improved total energy predictions. This approach integrates seamlessly into any existing neural potential with insignificant computational overhead. Experiments on the OE62 and MD22 benchmarks confirm that models combined with $\Phi$-Module achieve robust improvements over baseline counterparts. For OE62 error reduction ranges from 4.5\% to 17.8\%, and for MD22, baseline equipped with $\Phi$-Module achieves best results on 5 out of 14 cases. Our results underscore how embedding a first-principles constraint in neural interatomic potentials can significantly improve performance while remaining hyperparameter-friendly, memory-efficient and lightweight in training. Code will be available at \href{https://github.com/dunnolab/phi-module}{dunnolab/phi-module}.

arxiv情報

著者 Maksim Zhdanov,Vladislav Kurenkov
発行日 2025-05-20 16:54:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph | Electrostatics from Laplacian Eigenbasis for Neural Network Interatomic Potentials はコメントを受け付けていません