Deterministic and statistical calibration of constitutive models from full-field data with parametric physics-informed neural networks

要約

フルフィールドデータからの構成モデルのキャリブレーションは、最近、フルフィールド測定能力の改善により、関心が高まっています。
新しい材料の実験的特性に加えて、継続的な構造的健康監視は、非常に興味深い別のアプリケーションです。
ただし、監視は通常、深刻な時間制約に関連しており、標準的な数値アプローチに対応するのが困難です。
したがって、フルフィールド変位データからの構成モデルキャリブレーションのためのパラメトリック物理学に基づいたニューラルネットワーク(PINNS)を調査します。
オフラインステージでは、パラメトリックPINNをトレーニングして、基礎となる部分微分方程式のパラメーター化されたソリューションを学習できます。
その後のオンライン段階では、パラメトリックPINNは、キャリブレーションのパラメーターから状態のマップの代理として機能します。
線形弾性の決定論的最小二乗キャリブレーションと、ノイズの多い合成変位データからの過弾性構成モデルの提案されたアプローチをテストします。
さらに、マルコフチェーンモンテカルロベースのベイジアン推論を実行して、不確実性を定量化します。
結果の適切な統計的評価は、決定論的キャリブレーションの高精度と推定不確実性が有効であることを強調しています。
最後に、実験データを検討し、結果が有限要素メソッドベースのキャリブレーションとよく一致していることを示します。
PINNの高速評価により、キャリブレーションはほぼリアルタイムで実行できます。
この利点は、マルコフチェーンモンテカルロベースのベイジアン推論など、多くのクエリアプリケーションで特に顕著です。

要約(オリジナル)

The calibration of constitutive models from full-field data has recently gained increasing interest due to improvements in full-field measurement capabilities. In addition to the experimental characterization of novel materials, continuous structural health monitoring is another application that is of great interest. However, monitoring is usually associated with severe time constraints, difficult to meet with standard numerical approaches. Therefore, parametric physics-informed neural networks (PINNs) for constitutive model calibration from full-field displacement data are investigated. In an offline stage, a parametric PINN can be trained to learn a parameterized solution of the underlying partial differential equation. In the subsequent online stage, the parametric PINN then acts as a surrogate for the parameters-to-state map in calibration. We test the proposed approach for the deterministic least-squares calibration of a linear elastic as well as a hyperelastic constitutive model from noisy synthetic displacement data. We further carry out Markov chain Monte Carlo-based Bayesian inference to quantify the uncertainty. A proper statistical evaluation of the results underlines the high accuracy of the deterministic calibration and that the estimated uncertainty is valid. Finally, we consider experimental data and show that the results are in good agreement with a finite element method-based calibration. Due to the fast evaluation of PINNs, calibration can be performed in near real-time. This advantage is particularly evident in many-query applications such as Markov chain Monte Carlo-based Bayesian inference.

arxiv情報

著者 David Anton,Jendrik-Alexander Tröger,Henning Wessels,Ulrich Römer,Alexander Henkes,Stefan Hartmann
発行日 2025-06-02 07:05:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Deterministic and statistical calibration of constitutive models from full-field data with parametric physics-informed neural networks はコメントを受け付けていません

CHEQ-ing the Box: Safe Variable Impedance Learning for Robotic Polishing

要約

ロボットシステムは、産業自動化にますます採用されており、磨きや準拠の動作を必要とする研磨などの接触豊富なタスクがあります。
これらのタスクをモデル化するのは難しく、古典的な制御が困難になります。
Deep Renection Learning(RL)は、モデルの学習をデータから直接制御することを可能にすることにより、有望なソリューションを提供します。
ただし、実際の問題への適用は、データの非効率性と安全でない探索によって制限されます。
適応型ハイブリッドRLメソッドは、クラシックコントロールとRLを適応的にブレンドし、RLからの制御と学習からの構造の両方の強度を組み合わせて組み合わせています。
これにより、データの効率と探査の安全性が向上しました。
ただし、ハードウェアアプリケーションの可能性は未定であり、これまでの物理システムに関する評価はありません。
このような評価は、実際の設定でこれらの方法の実用性と有効性を完全に評価するために重要です。
この作業は、さまざまなインピーダンスを備えたロボット研磨のためのハイブリッドRLアルゴリズムCHEQの実験的な実証を提示します。これは、正確な力と速度追跡を必要とするタスクです。
シミュレーションでは、可変インピーダンスが研磨性能を高めることを示します。
スタンドアロンRLを適応性のあるハイブリッドRLと比較し、CHEQが安全性の制約を順守しながら効果的な学習を達成することを示しています。
ハードウェアでは、CHEQは効果的な研磨挙動を実現し、わずか8時間のトレーニングを必要とし、5つの障害しか必要としません。
これらの結果は、ハードウェアで直接トレーニングされた、実際のワールド、連絡先が豊富なタスクの適応ハイブリッドRLの可能性を強調しています。

要約(オリジナル)

Robotic systems are increasingly employed for industrial automation, with contact-rich tasks like polishing requiring dexterity and compliant behaviour. These tasks are difficult to model, making classical control challenging. Deep reinforcement learning (RL) offers a promising solution by enabling the learning of models and control policies directly from data. However, its application to real-world problems is limited by data inefficiency and unsafe exploration. Adaptive hybrid RL methods blend classical control and RL adaptively, combining the strengths of both: structure from control and learning from RL. This has led to improvements in data efficiency and exploration safety. However, their potential for hardware applications remains underexplored, with no evaluations on physical systems to date. Such evaluations are critical to fully assess the practicality and effectiveness of these methods in real-world settings. This work presents an experimental demonstration of the hybrid RL algorithm CHEQ for robotic polishing with variable impedance, a task requiring precise force and velocity tracking. In simulation, we show that variable impedance enhances polishing performance. We compare standalone RL with adaptive hybrid RL, demonstrating that CHEQ achieves effective learning while adhering to safety constraints. On hardware, CHEQ achieves effective polishing behaviour, requiring only eight hours of training and incurring just five failures. These results highlight the potential of adaptive hybrid RL for real-world, contact-rich tasks trained directly on hardware.

arxiv情報

著者 Emma Cramer,Lukas Jäschke,Sebastian Trimpe
発行日 2025-06-02 09:06:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | CHEQ-ing the Box: Safe Variable Impedance Learning for Robotic Polishing はコメントを受け付けていません

Investigating Energy Efficiency and Performance Trade-offs in LLM Inference Across Tasks and DVFS Settings

要約

大規模な言語モデル(LLMS)は、幅広い自然言語処理(NLP)タスクで顕著なパフォーマンスを実証しており、研究と業界の両方で広範な採用につながりました。
しかし、それらの推論ワークロードは計算的かつエネルギー集約的であり、持続可能性と環境への影響に関する懸念を引き起こします。
LLMSが拡大し続けるにつれて、パフォーマンスを損なうことなく、ランタイム効率に影響を与える要因を特定して最適化することが不可欠になります。
この作業では、推論中のLLMのエネルギーパフォーマンスのトレードオフを体系的に調査します。
Falcon-7B、Mistral-7B-V0.1、Llama-3.2-1B、Llama-3.2-3B、およびGPT-Neo-2.7Bなど、さまざまなサイズとアーキテクチャのモデルをベンチマークし、質問、共通の推論、事実上の世代などのタスクを介して。
シーケンス長、エントロピー、名前付きエンティティ密度などの入力特性の効果を分析します。
さらに、動的電圧と周波数スケーリング(DVFS)を介したハードウェアレベルの最適化の影響を調べ、異なるGPUクロック設定がレイテンシと電力消費にどのように影響するかを測定します。
私たちの経験的調査結果は、モデルアーキテクチャ、入力の複雑さ、およびクロック構成が推論効率に大きく影響することを示しています。
入力機能をエネルギーメトリックと相関させ、DVFSの動作を評価することにより、モデルの品質を維持しながらエネルギー消費を最大30%削減する実用的な戦略を特定します。
この研究は、エネルギー効率が高く持続可能なLLM推論システムを設計するための実用的な洞察を提供します。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated remarkable performance across a wide range of natural language processing (NLP) tasks, leading to widespread adoption in both research and industry. However, their inference workloads are computationally and energy intensive, raising concerns about sustainability and environmental impact. As LLMs continue to scale, it becomes essential to identify and optimize the factors that influence their runtime efficiency without compromising performance. In this work, we systematically investigate the energy-performance trade-offs of LLMs during inference. We benchmark models of varying sizes and architectures, including Falcon-7B, Mistral-7B-v0.1, LLaMA-3.2-1B, LLaMA-3.2-3B, and GPT-Neo-2.7B, across tasks such as question answering, commonsense reasoning, and factual generation. We analyze the effect of input characteristics, such as sequence length, entropy, named entity density and so on. Furthermore, we examine the impact of hardware-level optimizations through Dynamic Voltage and Frequency Scaling (DVFS), measuring how different GPU clock settings affect latency and power consumption. Our empirical findings show that model architecture, input complexity, and clock configuration significantly influence inference efficiency. By correlating input features with energy metrics and evaluating DVFS behavior, we identify practical strategies that reduce energy consumption by up to 30% while preserving model quality. This study provides actionable insights for designing energy-efficient and sustainable LLM inference systems.

arxiv情報

著者 Paul Joe Maliakel,Shashikant Ilager,Ivona Brandic
発行日 2025-06-02 09:12:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Investigating Energy Efficiency and Performance Trade-offs in LLM Inference Across Tasks and DVFS Settings はコメントを受け付けていません

Brain network science modelling of sparse neural networks enables Transformers and LLMs to perform as fully connected

要約

動的スパーストレーニング(DST)は、ANNの計算需要を減らすことができますが、ピーク性能を高いスパースレベルで維持するのが難しくなります。
Cannistraci-Hebbトレーニング(CHT)は、DSTで接続性を拡大するための脳に触発された方法です。
CHTは、完全に接続されたネットワークと比較して、さまざまなタスクで超スパース(1%未満の接続性)の利点を示している、グラデーションフリーのトポロジ駆動型リンク再生を活用しています。
しかし、CHTは2つの主な欠点に苦しんでいます:(i)その時間の複雑さは$ o(nd^3)$ -nノードネットワークサイズ、Dノード度 – それを超球体制に制限します。
(ii)ネットワークが信頼できない接続を提示する場合、初期のトレーニングエポックには不適切なトップリンク予測スコアを選択します。
ここでは、スパース人工ニューラルネットワークの接続性を初期化するために、最初の脳にインスパイアされたネットワークモデル(Bipartite受容フィールド(BRF)と呼ばれる)を設計します。
さらに、CHリンク予測のGPUに優しいマトリックスベースの近似を導入し、複雑さを$ O(n^3)$に減らします。
Cannistraci-Hebbトレーニングソフトルール(CHTS)を紹介します。これは、リンクの除去と再成長の両方で接続をサンプリングするための柔軟な戦略を採用し、ネットワークトポロジの探索と搾取のバランスをとります。
さらに、CHTSをシグモイド段階密度減衰(CHTSS)と統合します。
経験的結果は、BRFが以前のネットワークサイエンスモデルよりもパフォーマンスの利点を提供することを示しています。
接続の1%を使用して、CHTSは画像分類タスクのMLPアーキテクチャの完全に接続されたネットワークを上回り、一部のネットワークをノードの30%未満に圧縮します。
接続の5%を使用して、CHTSSは2つの変圧器ベースの機械翻訳タスクで完全に接続されたネットワークを上回ります。
最後に、30%の接続で、CHTSとCHTSSの両方が言語モデリングの他のDSTメソッドよりも優れており、ゼロショットタスクで完全に接続されたベースラインを超えています。

要約(オリジナル)

Dynamic sparse training (DST) can reduce the computational demands in ANNs, but faces difficulties in keeping peak performance at high sparsity levels. The Cannistraci-Hebb training (CHT) is a brain-inspired method for growing connectivity in DST. CHT leverages a gradient-free, topology-driven link regrowth, which has shown ultra-sparse (less than 1% connectivity) advantage across various tasks compared to fully connected networks. Yet, CHT suffers two main drawbacks: (i) its time complexity is $O(Nd^3)$ – N node network size, d node degree – restricting it to ultra-sparse regimes. (ii) it selects top link prediction scores, which is inappropriate for the early training epochs, when the network presents unreliable connections. Here, we design the first brain-inspired network model – termed bipartite receptive field (BRF) – to initialize the connectivity of sparse artificial neural networks. We further introduce a GPU-friendly matrix-based approximation of CH link prediction, reducing complexity to $O(N^3)$. We introduce the Cannistraci-Hebb training soft rule (CHTs), which adopts a flexible strategy for sampling connections in both link removal and regrowth, balancing the exploration and exploitation of network topology. Additionally, we integrate CHTs with a sigmoid gradual density decay (CHTss). Empirical results show that BRF offers performance advantages over previous network science models. Using 1% of connections, CHTs outperforms fully connected networks in MLP architectures on image classification tasks, compressing some networks to less than 30% of the nodes. Using 5% of the connections, CHTss outperforms fully connected networks in two Transformer-based machine translation tasks. Finally, at 30% connectivity, both CHTs and CHTss outperform other DST methods in language modeling and even exceed fully connected baselines in zero-shot tasks.

arxiv情報

著者 Yingtao Zhang,Diego Cerretti,Jialin Zhao,Wenjing Wu,Ziheng Liao,Umberto Michieli,Carlo Vittorio Cannistraci
発行日 2025-06-02 09:19:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Brain network science modelling of sparse neural networks enables Transformers and LLMs to perform as fully connected はコメントを受け付けていません

Schemato – An LLM for Netlist-to-Schematic Conversion

要約

機械学習モデルは、特にアナログ回路で回路設計を進めています。
彼らは通常、人間の解釈性を欠くネットリストを生成します。
これは、人間のデザイナーが回路図または回路図の解釈可能性に大きく依存して、デザインを直感的に理解し、トラブルシューティングし、開発することに大きく依存しているため、問題です。
したがって、ドメインの知識を効果的に統合するには、MLで生成されたネットリストを解釈可能な回路図に迅速かつ正確に変換することが重要です。
ネットリストからスキーマーへの変換のための大規模な言語モデル(LLM)であるSchematoを提案します。
特に、NetListsを.ASCファイルに変換するアプローチ、LTSPICEで使用されているテキストベースの概略図を検討します。
サーキットデータセットの実験は、Schematoが最大のLLMSによって63%のスコアを上回る最大76%のコンピレーションの成功率を達成することを示しています。
さらに、我々の実験は、スキーマトが平均グラフ編集距離スコアと平均構造類似性指数測定で回路図を生成することを示しています。これは、それぞれ最良のパフォーマンスのLLMよりもそれぞれ1.8xおよび4.3倍のコンピレーション成功率によって拡大され、より正確に接続され、参照人間のデザインに近いスキーマを生成する能力を示しています。

要約(オリジナル)

Machine learning models are advancing circuit design, particularly in analog circuits. They typically generate netlists that lack human interpretability. This is a problem as human designers heavily rely on the interpretability of circuit diagrams or schematics to intuitively understand, troubleshoot, and develop designs. Hence, to integrate domain knowledge effectively, it is crucial to translate ML-generated netlists into interpretable schematics quickly and accurately. We propose Schemato, a large language model (LLM) for netlist-to-schematic conversion. In particular, we consider our approach in converting netlists to .asc files, text-based schematic description used in LTSpice. Experiments on our circuit dataset show that Schemato achieves up to 76% compilation success rate, surpassing 63% scored by the state-of-the-art LLMs. Furthermore, our experiments show that Schemato generates schematics with an average graph edit distance score and mean structural similarity index measure, scaled by the compilation success rate that are 1.8x and 4.3x higher than the best performing LLMs respectively, demonstrating its ability to generate schematics that are more accurately connected and are closer to the reference human design.

arxiv情報

著者 Ryoga Matsuo,Stefan Uhlich,Arun Venkitaraman,Andrea Bonetti,Chia-Yu Hsieh,Ali Momeni,Lukas Mauch,Augusto Capone,Eisaku Ohbuchi,Lorenzo Servadei
発行日 2025-06-02 09:43:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: B.7.2, cs.AR, cs.LG | Schemato – An LLM for Netlist-to-Schematic Conversion はコメントを受け付けていません

Falsification of Unconfoundedness by Testing Independence of Causal Mechanisms

要約

観察研究における治療効果を推定する上での主な課題は、測定されていない交絡の想定などの未確定の状態に依存することです。
この作業では、環境と呼ばれる複数の不均一なソースからの観察データを使用して、設定で未測定の交絡の仮定を偽造できるアルゴリズムを提案します。
提案された改ざん戦略は、測定されていない交絡が観察された因果メカニズムが依存しているように見える可能性があるという重要な観察を活用しています。
この観察結果に基づいて、誤検知を制御しながらこれらの依存関係を高い統計力で検出する新しい2段階の手順を開発します。
このアルゴリズムは、ランダム化データへのアクセスを必要とせず、他の偽造アプローチとは対照的に、環境が関心のある結果に直接的な影響を与える場合でも、輸送可能性違反の下でも機能します。
アプローチの実用的な関連性を紹介するために、私たちの方法は、シミュレートされたデータと半合成データの両方の交絡を効率的に検出できることを示します。

要約(オリジナル)

A major challenge in estimating treatment effects in observational studies is the reliance on untestable conditions such as the assumption of no unmeasured confounding. In this work, we propose an algorithm that can falsify the assumption of no unmeasured confounding in a setting with observational data from multiple heterogeneous sources, which we refer to as environments. Our proposed falsification strategy leverages a key observation that unmeasured confounding can cause observed causal mechanisms to appear dependent. Building on this observation, we develop a novel two-stage procedure that detects these dependencies with high statistical power while controlling false positives. The algorithm does not require access to randomized data and, in contrast to other falsification approaches, functions even under transportability violations when the environment has a direct effect on the outcome of interest. To showcase the practical relevance of our approach, we show that our method is able to efficiently detect confounding on both simulated and semi-synthetic data.

arxiv情報

著者 Rickard K. A. Karlsson,Jesse H. Krijthe
発行日 2025-06-02 09:46:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), cs.LG, stat.ME, stat.ML | Falsification of Unconfoundedness by Testing Independence of Causal Mechanisms はコメントを受け付けていません

Finding Counterfactual Evidences for Node Classification

要約

反事実学習は、因果関係に根ざした重要なパラダイムとして浮上しており、公平性や解釈可能性など、グラフニューラルネットワーク(GNNS)の一般的な問題を軽減することを約束します。
ただし、ランダム化比較試験を実施する多くの実際のアプリケーションドメインのように、非事実を検出するには、利用可能な観察(事実)データに依存する必要があります。
この論文では、GNNベースのノード分類タスクの反事実的証拠を検索する問題を紹介し、取り組みます。
反事実的な証拠は、特徴と近隣のサブグラフ構造の両方で大きな類似性を示すにもかかわらず、GNNによって異なる方法で分類されるようなノードのペアです。
効果的かつ効率的な検索アルゴリズムと、ノード機能と構造情報の両方を活用して反事実的証拠を特定し、特定のGNNを超えて一般化する新しいインデックスソリューションを開発します。
さまざまなダウンストリームアプリケーションを通じて、GNNの公平性と精度を高めるための反事実的証拠の可能性を示します。

要約(オリジナル)

Counterfactual learning is emerging as an important paradigm, rooted in causality, which promises to alleviate common issues of graph neural networks (GNNs), such as fairness and interpretability. However, as in many real-world application domains where conducting randomized controlled trials is impractical, one has to rely on available observational (factual) data to detect counterfactuals. In this paper, we introduce and tackle the problem of searching for counterfactual evidences for the GNN-based node classification task. A counterfactual evidence is a pair of nodes such that, regardless they exhibit great similarity both in the features and in their neighborhood subgraph structures, they are classified differently by the GNN. We develop effective and efficient search algorithms and a novel indexing solution that leverages both node features and structural information to identify counterfactual evidences, and generalizes beyond any specific GNN. Through various downstream applications, we demonstrate the potential of counterfactual evidences to enhance fairness and accuracy of GNNs.

arxiv情報

著者 Dazhuo Qiu,Jinwen Chen,Arijit Khan,Yan Zhao,Francesco Bonchi
発行日 2025-06-02 09:54:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DB, cs.LG | Finding Counterfactual Evidences for Node Classification はコメントを受け付けていません

Zero-Shot Streaming Text to Speech Synthesis with Transducer and Auto-Regressive Modeling

要約

ゼロショットストリーミングテキストからスピーチは、人間コンピューターの相互作用における重要な研究トピックです。
既存の方法は、主にLookaheadメカニズムを使用しており、将来のテキストに依存して自然なストリーミング音声合成を実現し、高い処理潜時を導入します。
この問題に対処するために、高品質の音声フレームごとのフレームを生成するためのストリーミングフレームワークであるSMLLEを提案します。
SMLLEはトランスデューサーを採用してテキストをリアルタイムでセマンティックトークンに変換し、同時に持続時間アライメント情報を取得します。
次に、複合出力を完全に自己回帰(AR)ストリーミングモデルに供給して、メルスペクトルグラムを再構築します。
生成プロセスをさらに安定させるために、ARモデルが可能な限り最小限の遅延を導入する将来のテキストにアクセスできるようにする削除メカニズムを設計します。
実験結果は、SMLLEが現在のストリーミングTTSメソッドを上回り、文レベルのTTSシステムで同等のパフォーマンスを達成することを示唆しています。
サンプルは、shy-98.github.io/smlle_demo_page/で入手できます。

要約(オリジナル)

Zero-shot streaming text-to-speech is an important research topic in human-computer interaction. Existing methods primarily use a lookahead mechanism, relying on future text to achieve natural streaming speech synthesis, which introduces high processing latency. To address this issue, we propose SMLLE, a streaming framework for generating high-quality speech frame-by-frame. SMLLE employs a Transducer to convert text into semantic tokens in real time while simultaneously obtaining duration alignment information. The combined outputs are then fed into a fully autoregressive (AR) streaming model to reconstruct mel-spectrograms. To further stabilize the generation process, we design a Delete < Bos > Mechanism that allows the AR model to access future text introducing as minimal delay as possible. Experimental results suggest that the SMLLE outperforms current streaming TTS methods and achieves comparable performance over sentence-level TTS systems. Samples are available on shy-98.github.io/SMLLE_demo_page/.

arxiv情報

著者 Haiyang Sun,Shujie Hu,Shujie Liu,Lingwei Meng,Hui Wang,Bing Han,Yifan Yang,Yanqing Liu,Sheng Zhao,Yan Lu,Yanmin Qian
発行日 2025-06-02 10:03:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Zero-Shot Streaming Text to Speech Synthesis with Transducer and Auto-Regressive Modeling はコメントを受け付けていません

Meta-Learning Approaches for Speaker-Dependent Voice Fatigue Models

要約

スピーカー依存モデリングは、音声ベースの健康監視アプリケーションのパフォーマンスを大幅に改善できます。
このようなスピーカーの適応には混合効果モデルが一般的に使用されますが、新しい観察するたびに計算上の高価な再訓練が必要であり、生産環境では非現実的なものにします。
このタスクをメタラーニングの問題として再定式化し、複雑さを高める3つのアプローチ、アンサンブルベースの距離モデル、プロトタイプネットワーク、トランスベースのシーケンスモデルを探ります。
事前に訓練された音声埋め込みを使用して、これらの方法をシフトワーカーの大きな縦断的データセット(n = 1,185、10,286録音)で評価し、疲労の関数としての音声からの睡眠からの時間を予測します。これは、一般的に健康に関連する症状です。
我々の結果は、テストされたすべてのメタラーニングアプローチが、トランスベースの方法が最も強力なパフォーマンスを実現し、断面および従来の混合効果モデルよりも優れていることを示しています。

要約(オリジナル)

Speaker-dependent modelling can substantially improve performance in speech-based health monitoring applications. While mixed-effect models are commonly used for such speaker adaptation, they require computationally expensive retraining for each new observation, making them impractical in a production environment. We reformulate this task as a meta-learning problem and explore three approaches of increasing complexity: ensemble-based distance models, prototypical networks, and transformer-based sequence models. Using pre-trained speech embeddings, we evaluate these methods on a large longitudinal dataset of shift workers (N=1,185, 10,286 recordings), predicting time since sleep from speech as a function of fatigue, a symptom commonly associated with ill-health. Our results demonstrate that all meta-learning approaches tested outperformed both cross-sectional and conventional mixed-effects models, with a transformer-based method achieving the strongest performance.

arxiv情報

著者 Roseline Polle,Agnes Norbury,Alexandra Livia Georgescu,Nicholas Cummins,Stefano Goria
発行日 2025-06-02 10:11:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Meta-Learning Approaches for Speaker-Dependent Voice Fatigue Models はコメントを受け付けていません

Load Forecasting for Households and Energy Communities: Are Deep Learning Models Worth the Effort?

要約

エネルギーシステムは、再生可能な世代の高い株を持つ分散型構造に移行するため、エネルギーコミュニティ(ECS)が地域の需要の変化と強化を可能にする上で重要な役割を果たします。
それらを最適に動作させるには、特に需要側の管理戦略を実装するために、正確な短期負荷予測が不可欠です。
最近の深い学習方法の台頭により、データ駆動型の予測は大きな注目を集めていますが、多くの実用的なコンテキストでは不十分に調査されたままです。
したがって、この研究では、さまざまなコミュニティサイズ、履歴データの可用性、モデルの複雑さにわたるK-Nearest Neighbors(KNN)や持続性予測などの従来のベンチマークと比較して、LSTM、XLSTM、トランスアーキテクチャなど、最先端の深い学習モデルの有効性を評価します。
さらに、公開されている合成負荷プロファイルを使用して、転送学習の利点を評価します。
平均して、転送学習は、2か月のトレーニングデータが利用可能な場合、正規化された平均絶対誤差を1.97%PTに改善します。
興味深いことに、トレーニングデータの6か月未満で、単純な永続性モデルは、予測精度で深い学習アーキテクチャを上回ります。
改善された予測の実用的な価値は、共有バッテリーエネルギー貯蔵システムを備えたECSの混合整数線形プログラミング最適化を使用して実証されています。
最も正確な深い学習モデルは、8.06%の財務エネルギーコストの平均削減を達成します。
特に、単純なKNNアプローチは平均8.01%の節約を実現し、競争力のある堅牢な代替品となっています。
すべての実装は、再現性を促進するために公開されています。
これらの調査結果は、ECSの実用的な洞察を提供し、パフォーマンスの向上によって深い学習の追加の複雑さが保証されるときに強調しています。

要約(オリジナル)

Energy communities (ECs) play a key role in enabling local demand shifting and enhancing self-sufficiency, as energy systems transition toward decentralized structures with high shares of renewable generation. To optimally operate them, accurate short-term load forecasting is essential, particularly for implementing demand-side management strategies. With the recent rise of deep learning methods, data-driven forecasting has gained significant attention, however, it remains insufficiently explored in many practical contexts. Therefore, this study evaluates the effectiveness of state-of-the-art deep learning models — including LSTM, xLSTM, and Transformer architectures — compared to traditional benchmarks such as K-Nearest Neighbors (KNN) and persistence forecasting, across varying community size, historical data availability, and model complexity. Additionally, we assess the benefits of transfer learning using publicly available synthetic load profiles. On average, transfer learning improves the normalized mean absolute error by 1.97%pt when only two months of training data are available. Interestingly, for less than six months of training data, simple persistence models outperform deep learning architectures in forecast accuracy. The practical value of improved forecasting is demonstrated using a mixed-integer linear programming optimization for ECs with a shared battery energy storage system. The most accurate deep learning model achieves an average reduction in financial energy costs of 8.06%. Notably, a simple KNN approach achieves average savings of 8.01%, making it a competitive and robust alternative. All implementations are publicly available to facilitate reproducibility. These findings offer actionable insights for ECs, and they highlight when the additional complexity of deep learning is warranted by performance gains.

arxiv情報

著者 Lukas Moosbrugger,Valentin Seiler,Philipp Wohlgenannt,Sebastian Hegenbart,Sashko Ristov,Elias Eder,Peter Kepplinger
発行日 2025-06-02 10:14:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Load Forecasting for Households and Energy Communities: Are Deep Learning Models Worth the Effort? はコメントを受け付けていません