Integrating Physics and Topology in Neural Networks for Learning Rigid Body Dynamics

要約

剛体の相互作用は、多くの科学分野の基本ですが、複雑でしばしば未知の環境要因に対する非線形性の突然の性質と感受性のために、シミュレートするのは困難なままです。
これらの課題では、明示的な物理モデルやシミュレーションを超えて複雑な相互作用をキャプチャできる適応可能な学習ベースの方法が必要です。
グラフニューラルネットワークは単純なシナリオを処理できますが、複雑なシーンや長期的な予測に苦労しています。
既存のグラフベースの方法の主要な制限に対処するために、剛体のダイナミクスと学習衝突相互作用をモデル化するための新しいフレームワークを紹介します。
私たちのアプローチは、高次トポロジー複合体を組み込むことにより、メッシュの従来の表現を拡張し、物理的に一貫した表現を提供します。
さらに、物理学に基づいたメッセージパス神経アーキテクチャを提案し、モデルに物理的法則を直接埋め込みます。
私たちの方法は、長いロールアウト中でも優れた精度を示し、目に見えないシナリオに強い一般化を示します。
重要なことに、この作業は、多様な科学的および工学的ドメインにまたがるアプリケーションとのマルチエンティティ動的相互作用の課題に対処します。

要約(オリジナル)

Rigid body interactions are fundamental to numerous scientific disciplines, but remain challenging to simulate due to their abrupt nonlinear nature and sensitivity to complex, often unknown environmental factors. These challenges call for adaptable learning-based methods capable of capturing complex interactions beyond explicit physical models and simulations. While graph neural networks can handle simple scenarios, they struggle with complex scenes and long-term predictions. We introduce a novel framework for modeling rigid body dynamics and learning collision interactions, addressing key limitations of existing graph-based methods. Our approach extends the traditional representation of meshes by incorporating higher-order topology complexes, offering a physically consistent representation. Additionally, we propose a physics-informed message-passing neural architecture, embedding physical laws directly in the model. Our method demonstrates superior accuracy, even during long rollouts, and exhibits strong generalization to unseen scenarios. Importantly, this work addresses the challenge of multi-entity dynamic interactions, with applications spanning diverse scientific and engineering domains.

arxiv情報

著者 Amaury Wei,Olga Fink
発行日 2025-04-17 13:43:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Integrating Physics and Topology in Neural Networks for Learning Rigid Body Dynamics はコメントを受け付けていません

RL-PINNs: Reinforcement Learning-Driven Adaptive Sampling for Efficient Training of PINNs

要約

物理学に基づいたニューラルネットワーク(PINN)は、部分微分方程式(PDE)を解くための強力なフレームワークとして浮上しています。
ただし、彼らのパフォーマンスは、トレーニングポイントを選択するために使用される戦略に大きく依存しています。
残留ベースの改良などの従来の適応サンプリング方法では、多くの場合、PINNのマルチラウンドサンプリングと繰り返し再訓練が必要であり、特に高次または高次の誘導体シナリオで冗長ポイントとコストの勾配計算による計算非効率性につながります。
これらの制限に対処するために、RL-PINNSを提案します。RLPINNSは、1回のサンプリングのみで効率的なトレーニングを可能にする強化学習(RL)駆動型の適応サンプリングフレームワークです。
当社のアプローチは、適応サンプリングをマルコフ決定プロセスとして定式化します。このプロセスでは、RLエージェントが長期的なユーティリティメトリックを最大化することにより最適なトレーニングポイントを動的に選択します。
重大なことに、勾配依存性残留メトリックを報酬信号として計算効率の高い関数変動に置き換え、微分計算のオーバーヘッドを排除します。
さらに、短期的な利益よりも長期的なトレーニングの安定性を優先するために、遅延報酬メカニズムを採用しています。
低正規、非線形、高次元、および高次の問題を含む多様なPDEベンチマーク全体の広範な実験は、RL-PINNが既存の残留駆動型の適応方法を精度で大幅に上回ることを示しています。
特に、RL-Pinnsは、無視できるサンプリングオーバーヘッドでこれを達成し、高次元および高次の問題にスケーラブルにします。

要約(オリジナル)

Physics-Informed Neural Networks (PINNs) have emerged as a powerful framework for solving partial differential equations (PDEs). However, their performance heavily relies on the strategy used to select training points. Conventional adaptive sampling methods, such as residual-based refinement, often require multi-round sampling and repeated retraining of PINNs, leading to computational inefficiency due to redundant points and costly gradient computations-particularly in high-dimensional or high-order derivative scenarios. To address these limitations, we propose RL-PINNs, a reinforcement learning(RL)-driven adaptive sampling framework that enables efficient training with only a single round of sampling. Our approach formulates adaptive sampling as a Markov decision process, where an RL agent dynamically selects optimal training points by maximizing a long-term utility metric. Critically, we replace gradient-dependent residual metrics with a computationally efficient function variation as the reward signal, eliminating the overhead of derivative calculations. Furthermore, we employ a delayed reward mechanism to prioritize long-term training stability over short-term gains. Extensive experiments across diverse PDE benchmarks, including low-regular, nonlinear, high-dimensional, and high-order problems, demonstrate that RL-PINNs significantly outperforms existing residual-driven adaptive methods in accuracy. Notably, RL-PINNs achieve this with negligible sampling overhead, making them scalable to high-dimensional and high-order problems.

arxiv情報

著者 Zhenao Song
発行日 2025-04-17 13:50:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA | RL-PINNs: Reinforcement Learning-Driven Adaptive Sampling for Efficient Training of PINNs はコメントを受け付けていません

Vision and Language Integration for Domain Generalization

要約

ドメイン一般化は、ソースドメインのトレーニングをトレーニングしてドメイン不変の特徴空間を明らかにし、モデルが未知のターゲットドメインで堅牢な一般化能力を実行できるようにすることを目的としています。
ただし、ドメインのギャップにより、信頼できる一般的な画像機能スペースを見つけることは困難であり、その理由は、画像に適した基本ユニットがないことです。
ビジョン空間の画像とは異なり、言語にはセマンティクスを効果的に伝えることができる包括的な表現要素があります。
言語のセマンティックな完全性と画像の直感性に触発され、言語空間とビジョン空間を組み合わせたVLCAを提案し、セマンティックスペースをブリッジドメインとして使用して複数の画像ドメインを接続します。
具体的には、言語空間では、言語の基本単位の完全性を活用することにより、ワードベクトル距離を介してカテゴリ間の関係の意味表現をキャプチャする傾向があります。
次に、ビジョン空間では、画像機能の直感性を活用することにより、同じクラスのサンプル機能の共通のパターンが低ランク近似によって調査されます。
最終的に、言語表現は、テキストと画像のマルチモーダル空間を介したビジョン表現と一致します。
実験は、提案された方法の有効性を示しています。

要約(オリジナル)

Domain generalization aims at training on source domains to uncover a domain-invariant feature space, allowing the model to perform robust generalization ability on unknown target domains. However, due to domain gaps, it is hard to find reliable common image feature space, and the reason for that is the lack of suitable basic units for images. Different from image in vision space, language has comprehensive expression elements that can effectively convey semantics. Inspired by the semantic completeness of language and intuitiveness of image, we propose VLCA, which combine language space and vision space, and connect the multiple image domains by using semantic space as the bridge domain. Specifically, in language space, by taking advantage of the completeness of language basic units, we tend to capture the semantic representation of the relations between categories through word vector distance. Then, in vision space, by taking advantage of the intuitiveness of image features, the common pattern of sample features with the same class is explored through low-rank approximation. In the end, the language representation is aligned with the vision representation through the multimodal space of text and image. Experiments demonstrate the effectiveness of the proposed method.

arxiv情報

著者 Yanmei Wang,Xiyao Liu,Fupeng Chu,Zhi Han
発行日 2025-04-17 14:19:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG | Vision and Language Integration for Domain Generalization はコメントを受け付けていません

Cluster-based classification with neural ODEs via control

要約

$ n $のデータポイントの同時制御の観点から、神経の通常の微分方程式を使用してバイナリ分類に対処します。
パラメーターが固定された定数関数として固定された単一ニューロンアーキテクチャを検討します。
この設定では、モデルの複雑さを制御スイッチの数によって定量化できます。
以前の研究では、$ o(n)$スイッチを必要とするポイントバイポイント戦略を使用して分類を達成できることが示されています。
$ d $ポイントの順次ステアリングクラスターによって任意のデータセットを分類する新しい制御方法を提案し、それにより複雑さが$ o(n/d)$スイッチに減少します。
特に高次元でのこの結果の最適性は、いくつかの数値実験によってサポートされています。
私たちの複雑さは十分ですが、多くの場合保守的です。なぜなら、同階級のポイントはより大きなクラスターに現れる傾向があり、分類を簡素化する傾向があるからです。
これにより、必要なスイッチの数の確率分布を研究する動機になります。
パラメーターに共線性の制約を課す単純な制御方法を導入し、両方のクラスが同じサイズで、すべてのポイントがi.i.d.である最悪のシナリオを分析します。
私たちの結果は、高次元空間の利点を強調しており、一定のコントロールを使用した分類が$ D $が増加するにつれてより可能性が高いことを示しています。

要約(オリジナル)

We address binary classification using neural ordinary differential equations from the perspective of simultaneous control of $N$ data points. We consider a single-neuron architecture with parameters fixed as piecewise constant functions of time. In this setting, the model complexity can be quantified by the number of control switches. Previous work has shown that classification can be achieved using a point-by-point strategy that requires $O(N)$ switches. We propose a new control method that classifies any arbitrary dataset by sequentially steering clusters of $d$ points, thereby reducing the complexity to $O(N/d)$ switches. The optimality of this result, particularly in high dimensions, is supported by some numerical experiments. Our complexity bound is sufficient but often conservative because same-class points tend to appear in larger clusters, simplifying classification. This motivates studying the probability distribution of the number of switches required. We introduce a simple control method that imposes a collinearity constraint on the parameters, and analyze a worst-case scenario where both classes have the same size and all points are i.i.d. Our results highlight the benefits of high-dimensional spaces, showing that classification using constant controls becomes more probable as $d$ increases.

arxiv情報

著者 Antonio Álvarez-López,Rafael Orive-Illera,Enrique Zuazua
発行日 2025-04-17 14:28:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 34H05, 68T07, cs.LG, math.OC | Cluster-based classification with neural ODEs via control はコメントを受け付けていません

Why Ask One When You Can Ask $k$? Two-Stage Learning-to-Defer to a Set of Experts

要約

学習学習(L2D)により、意思決定システムは、より有能なエージェントに不確実な予測を選択的に延期することにより、信頼性を向上させることができます。
ただし、ほとんどの既存のアプローチは、単一エージェントの延期にのみ焦点を当てています。これは、集合的な専門知識を必要とするハイステークスシナリオではしばしば不十分です。
$-$ $ K $学習を提案します。これは、各クエリを1つではなく$ K $のエージェントに割り当てる古典的な2段階L2Dフレームワークの一般化です。
柔軟性と費用効率をさらに向上させるために、入力の複雑さ、エージェントコンピテンシーの分布、および相談コストに基づいて、各クエリに相談する最適なエージェントの最適な数を学習する適応拡張機能であるTop $ $ $ K(X)$ Learning-to Deferを導入します。
両方の設定について、新しいサロゲート損失を導き出し、それがベイズコンシンテーションと$(\ mathcal {r}、\ mathcal {g})$であることを証明します。
特に、確立されたモデルのカスケードパラダイムは、$ $ k $およびトップ$ $ k(x)$の定式化の制限されたインスタンスとして生じることを示しています。
多様なベンチマーク全体の広範な実験は、分類タスクと回帰タスクの両方に対するフレームワークの有効性を示しています。

要約(オリジナル)

Learning-to-Defer (L2D) enables decision-making systems to improve reliability by selectively deferring uncertain predictions to more competent agents. However, most existing approaches focus exclusively on single-agent deferral, which is often inadequate in high-stakes scenarios that require collective expertise. We propose Top-$k$ Learning-to-Defer, a generalization of the classical two-stage L2D framework that allocates each query to the $k$ most confident agents instead of a single one. To further enhance flexibility and cost-efficiency, we introduce Top-$k(x)$ Learning-to-Defer, an adaptive extension that learns the optimal number of agents to consult for each query, based on input complexity, agent competency distributions, and consultation costs. For both settings, we derive a novel surrogate loss and prove that it is Bayes-consistent and $(\mathcal{R}, \mathcal{G})$-consistent, ensuring convergence to the Bayes-optimal allocation. Notably, we show that the well-established model cascades paradigm arises as a restricted instance of our Top-$k$ and Top-$k(x)$ formulations. Extensive experiments across diverse benchmarks demonstrate the effectiveness of our framework on both classification and regression tasks.

arxiv情報

著者 Yannis Montreuil,Axel Carlier,Lai Xing Ng,Wei Tsang Ooi
発行日 2025-04-17 14:50:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Why Ask One When You Can Ask $k$? Two-Stage Learning-to-Defer to a Set of Experts はコメントを受け付けていません

Exploring the Boundaries of On-Device Inference: When Tiny Falls Short, Go Hierarchical

要約

デバイス上の推論は、Edge MLシステムのエネルギー効率、応答性、プライバシーの向上の大きな可能性を秘めています。
ただし、リソースに制限されたデバイスに埋め込むことができるMLモデルが少ないため、ユースケースは視覚キーワードスポッティング、ジェスチャー認識、予測分析などの単純な推論タスクに限定されます。
これに関連して、選択したサンプルをリモートML推論のためにエッジサーバーまたはクラウドにオフロードすることにより、ローカルMLの機能を強化する有望なソリューションとして階層推論(HI)システムが浮上しています。
既存の作品は、HIが精度を向上させることをシミュレーションを通じて実証しています。
ただし、デバイスのレイテンシとエネルギー消費を考慮しておらず、MLシステムを特徴付ける3つの重要な不均一な寸法、つまりハードウェア、ネットワーク接続、モデルを考慮しません。
対照的に、このペーパーでは、異なる機能と3つの画像分類データセットを備えた5つのデバイスで埋め込まれたMLモデルを実行するための精度、レイテンシ、およびエネルギーの測定に基づいて、HIのパフォーマンスをオンデバイス推論と体系的に比較します。
特定の精度要件に対して、設計したHIシステムは、デバイス推論システムよりも最大73%低いレイテンシと最大77%のデバイスエネルギー消費を達成しました。
効率的なHIシステムを構築するための鍵は、リモート推論を必要とするサンプルに対して出力を効果的に区別できる小型で合理的に正確なオンデバイスモデルの可用性です。
パフォーマンスの向上にもかかわらず、HIはすべてのサンプルに対してデバイス上の推論を必要とします。これは、そのレイテンシとエネルギー消費に固定オーバーヘッドを追加します。
したがって、ハイブリッドシステムを設計し、HI(EE-HI)で早期出口を設計し、HIと比較して、EE-HIが最大59.7%減少し、デバイスのエネルギー消費量を最大60.4%削減することを実証します。

要約(オリジナル)

On-device inference holds great potential for increased energy efficiency, responsiveness, and privacy in edge ML systems. However, due to less capable ML models that can be embedded in resource-limited devices, use cases are limited to simple inference tasks such as visual keyword spotting, gesture recognition, and predictive analytics. In this context, the Hierarchical Inference (HI) system has emerged as a promising solution that augments the capabilities of the local ML by offloading selected samples to an edge server or cloud for remote ML inference. Existing works demonstrate through simulation that HI improves accuracy. However, they do not account for the latency and energy consumption on the device, nor do they consider three key heterogeneous dimensions that characterize ML systems: hardware, network connectivity, and models. In contrast, this paper systematically compares the performance of HI with on-device inference based on measurements of accuracy, latency, and energy for running embedded ML models on five devices with different capabilities and three image classification datasets. For a given accuracy requirement, the HI systems we designed achieved up to 73% lower latency and up to 77% lower device energy consumption than an on-device inference system. The key to building an efficient HI system is the availability of small-size, reasonably accurate on-device models whose outputs can be effectively differentiated for samples that require remote inference. Despite the performance gains, HI requires on-device inference for all samples, which adds a fixed overhead to its latency and energy consumption. Therefore, we design a hybrid system, Early Exit with HI (EE-HI), and demonstrate that compared to HI, EE-HI reduces the latency by up to 59.7% and lowers the device’s energy consumption by up to 60.4%.

arxiv情報

著者 Adarsh Prasad Behera,Paulius Daubaris,Iñaki Bravo,José Gallego,Roberto Morabito,Joerg Widmer,Jaya Prakash Varma Champati
発行日 2025-04-17 14:53:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG | Exploring the Boundaries of On-Device Inference: When Tiny Falls Short, Go Hierarchical はコメントを受け付けていません

Query Complexity of Classical and Quantum Channel Discrimination

要約

量子チャネルの識別は、不明なチャネルアクセスの数の関数としての最適な減衰確率に関心がある情報理論的な観点から研究されています。
このホワイトペーパーでは、量子チャネル識別のクエリの複雑さを調べます。目標は、目的の誤差確率に達するために必要なチャネルの最小数を決定することです。
この目的のために、バイナリチャネル識別のクエリの複雑さは、逆誤差確率に対数的に依存し、(幾何学的およびholevo)チャネルの忠実度の負の対数に反比例することを示します。
これらの調査結果の特別なケースとして、2つの古典的なチャネル間で区別するクエリの複雑さを正確に特徴付けます。
また、バイナリ非対称チャネルの識別と複数の量子チャネル識別のクエリの複雑さの下限と上限を提供します。
前者の場合、クエリの複雑さは幾何学的なr \ ‘enyiおよびpetz r \’ enyiチャネルの発散に依存しますが、後者の場合、チャネルの忠実度の負の対数に依存します。
複数のチャネル識別の場合、上限はチャネル数の対数としてスケーリングします。

要約(オリジナル)

Quantum channel discrimination has been studied from an information-theoretic perspective, wherein one is interested in the optimal decay rate of error probabilities as a function of the number of unknown channel accesses. In this paper, we study the query complexity of quantum channel discrimination, wherein the goal is to determine the minimum number of channel uses needed to reach a desired error probability. To this end, we show that the query complexity of binary channel discrimination depends logarithmically on the inverse error probability and inversely on the negative logarithm of the (geometric and Holevo) channel fidelity. As a special case of these findings, we precisely characterize the query complexity of discriminating between two classical channels. We also provide lower and upper bounds on the query complexity of binary asymmetric channel discrimination and multiple quantum channel discrimination. For the former, the query complexity depends on the geometric R\’enyi and Petz R\’enyi channel divergences, while for the latter, it depends on the negative logarithm of (geometric and Uhlmann) channel fidelity. For multiple channel discrimination, the upper bound scales as the logarithm of the number of channels.

arxiv情報

著者 Theshani Nuradha,Mark M. Wilde
発行日 2025-04-17 14:54:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, quant-ph, stat.TH | Query Complexity of Classical and Quantum Channel Discrimination はコメントを受け付けていません

Chain-of-Thought Prompting for Out-of-Distribution Samples: A Latent-Variable Study

要約

複雑な推論を中間ステップに分割することにより、大規模な言語モデル(LLMS)のコンテキスト内学習(ICL)を改善するための強力な手法として、チェーンオブ思考(COT)プロンプトが浮上しています。
ただし、分布シフトの下でCOTが一般化する能力は、依然としてよく理解されていません。
この作業では、COTの潜在的な変数フレームワークを拡張し、2つのプロトタイプの外部分布(OOD)シナリオでその動作を促し、研究します。
私たちの実験は、COTの推論がトレーニング中に見られる潜在変数に非常に似ているSAMPLESに効果的に一般化することを示していますが、この類似性が低下するにつれてそのパフォーマンスは低下します。
これらの調査結果は、OOD条件下で促すCOTの強みと制限に関する基礎的な洞察を提供し、将来のLLMでより回復力のある推論戦略を開発するための指示を示唆しています。

要約(オリジナル)

Chain-of-Thought (CoT) prompting has emerged as a powerful technique to improve in-context learning (ICL) in large language models (LLMs) by breaking complex reasoning into intermediate steps. However, the ability of CoT to generalize under distribution shift remains poorly understood. In this work, we extend a latent-variable framework for CoT prompting and study its behavior on two prototypical out-of-distribution (OOD) scenarios: (i) the latent variables for CoT steps are permuted into novel combinations, and (ii) the latent variables uniformly scaled by a factor. Our experiments demonstrate that CoT inference generalizes effectively to OOD samples whose latent variables closely resemble those seen during training, but its performance degrades as this similarity decreases. These findings provide foundational insights into the strengths and limitations of CoT prompting under OOD conditions and suggest directions for developing more resilient reasoning strategies in future LLMs.

arxiv情報

著者 Yu Wang,Fu-Chieh Chang,Pei-Yuan Wu
発行日 2025-04-17 14:59:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Chain-of-Thought Prompting for Out-of-Distribution Samples: A Latent-Variable Study はコメントを受け付けていません

Inference-friendly Graph Compression for Graph Neural Networks

要約

グラフニューラルネットワーク(GNNS)は、グラフ分析において有望なパフォーマンスを実証しています。
それにもかかわらず、GNNの推論プロセスはコストのかかるままであり、大きなグラフのアプリケーションを妨げます。
このペーパーでは、GNNS推論を加速するためのグラフ圧縮スキームである推論に優しいグラフ圧縮(IFGC)を提案します。
グラフ$ g $とa gnn $ m $を与えられた場合、IFGCは小さな圧縮グラフ$ g_c $を計算し、$ g $を超える$ m $の推論結果を最適に保持します。
(1)推論の等価関係のクラスでIFGCを特徴付けます。
関係は、GNN推論では区別できない$ g $でノードペアをキャプチャします。
(2)代表的なGNNSのIFGCの3つの実用仕様を導入します。構造保存圧縮(SPGC)を導入します。これは、減圧なしでGNN推論によって直接処理できる$ G_C $を計算します。
($ \ alpha $、$ r $) – 圧縮、圧縮比と推論の品質の間の構成可能なトレードオフを可能にし、関心のある特定のノードの推論結果を維持する圧縮を固定しました。
各スキームについて、推定結果の効率と品質を保証する圧縮および推論アルゴリズムを導入します。
私たちは、グラフ圧縮アプローチの有効性と効率を検証する、多様な大規模なグラフのセットで広範な実験を実施します。

要約(オリジナル)

Graph Neural Networks (GNNs) have demonstrated promising performance in graph analysis. Nevertheless, the inference process of GNNs remains costly, hindering their applications for large graphs. This paper proposes inference-friendly graph compression (IFGC), a graph compression scheme to accelerate GNNs inference. Given a graph $G$ and a GNN $M$, an IFGC computes a small compressed graph $G_c$, to best preserve the inference results of $M$ over $G$, such that the result can be directly inferred by accessing $G_c$ with no or little decompression cost. (1) We characterize IFGC with a class of inference equivalence relation. The relation captures the node pairs in $G$ that are not distinguishable for GNN inference. (2) We introduce three practical specifications of IFGC for representative GNNs: structural preserving compression (SPGC), which computes $G_c$ that can be directly processed by GNN inference without decompression; ($\alpha$, $r$)-compression, that allows for a configurable trade-off between compression ratio and inference quality, and anchored compression that preserves inference results for specific nodes of interest. For each scheme, we introduce compression and inference algorithms with guarantees of efficiency and quality of the inferred results. We conduct extensive experiments on diverse sets of large-scale graphs, which verifies the effectiveness and efficiency of our graph compression approaches.

arxiv情報

著者 Yangxin Fan,Haolai Che,Yinghui Wu
発行日 2025-04-17 15:42:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Inference-friendly Graph Compression for Graph Neural Networks はコメントを受け付けていません

The Dissipation Theory of Aging: A Quantitative Analysis Using a Cellular Aging Map

要約

動的システムに基づいた老化の新しい理論を提案し、細胞レベルでの変化を定量化するためのデータ駆動型計算方法を提供します。
エルゴジック理論を使用して、老化中の変化のダイナミクスを分解し、老化が非保守的な力のために散逸が起こる動的システムに似た生物系内の散逸プロセスであることを示します。
散逸ダイナミクスを定量化するために、変圧器ベースの機械学習アルゴリズムを採用して遺伝子発現データを分析します。年齢をトークンとして組み込み、埋め込み空間に加齢に伴う散逸がどのように反映されるかを評価します。
遺伝子と年齢の埋め込みのダイナミクスを評価することにより、細胞老化マップ(CAM)を提供し、さまざまな組織および細胞タイプの老化中の遺伝子埋め込みスペース、非線形遷移、およびエントロピーの変動の発散を示すパターンを特定します。
私たちの結果は、散逸プロセスとしての老化に関する新しい視点を提供し、分子分解能で年齢に関連した変化を測定できる計算フレームワークを導入します。

要約(オリジナル)

We propose a new theory for aging based on dynamical systems and provide a data-driven computational method to quantify the changes at the cellular level. We use ergodic theory to decompose the dynamics of changes during aging and show that aging is fundamentally a dissipative process within biological systems, akin to dynamical systems where dissipation occurs due to non-conservative forces. To quantify the dissipation dynamics, we employ a transformer-based machine learning algorithm to analyze gene expression data, incorporating age as a token to assess how age-related dissipation is reflected in the embedding space. By evaluating the dynamics of gene and age embeddings, we provide a cellular aging map (CAM) and identify patterns indicative of divergence in gene embedding space, nonlinear transitions, and entropy variations during aging for various tissues and cell types. Our results provide a novel perspective on aging as a dissipative process and introduce a computational framework that enables measuring age-related changes with molecular resolution.

arxiv情報

著者 Farhan Khodaee,Rohola Zandie,Yufan Xia,Elazer R. Edelman
発行日 2025-04-17 15:59:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.bio-ph, q-bio.QM | The Dissipation Theory of Aging: A Quantitative Analysis Using a Cellular Aging Map はコメントを受け付けていません