Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations

要約

トランスアーキテクチャを使用した時系列モデリングに最近関心が高まっています。
ただし、変圧器を使用した多変量時系列の予測は、時間的(クロスタイム)とバリエート(交差)依存関係の両方をモデル化する必要があるため、ユニークな課題です。
変圧器ベースのモデルは、シーケンシャルと交差の両方の関係をキャプチャする柔軟性で人気を博していますが、パフォーマンスと効率の両方を最適化しながら、トランスアーキテクチャのコンテキストでこれら2つの情報源を最適に統合する方法は不明です。
トランスアーキテクチャを再利用して、クロスタイムと交差の両方の依存関係の両方を効果的にモデル化します。
私たちのアプローチは、各変数を独立して、クロスタイムダイナミクスをキャプチャするバリエートワイズ表現に埋め込み、次にこれらの学習した埋め込みの注意メカニズムを介して交差依存関係をモデル化することから始まります。
クロスタイムモデルと交差の両方のモデリングフェーズの両方でのゲーティング操作は、情報の流れを調節し、モデルが正確な予測のために最も関連性の高い機能に焦点を合わせることができます。
私たちの方法は、13の実際のデータセットで最先端のパフォーマンスを達成し、他のトランスベースおよびLLMベースの予測者にシームレスに統合でき、元のモデルよりも最大20.7 \%までのパフォーマンスの改善を実現できます。
コードは、このリポジトリで入手できます:https://github.com/nyuolab/gateformer。

要約(オリジナル)

There has been a recent surge of interest in time series modeling using the Transformer architecture. However, forecasting multivariate time series with Transformer presents a unique challenge as it requires modeling both temporal (cross-time) and variate (cross-variate) dependencies. While Transformer-based models have gained popularity for their flexibility in capturing both sequential and cross-variate relationships, it is unclear how to best integrate these two sources of information in the context of the Transformer architecture while optimizing for both performance and efficiency. We re-purpose the Transformer architecture to effectively model both cross-time and cross-variate dependencies. Our approach begins by embedding each variate independently into a variate-wise representation that captures its cross-time dynamics, and then models cross-variate dependencies through attention mechanisms on these learned embeddings. Gating operations in both cross-time and cross-variate modeling phases regulate information flow, allowing the model to focus on the most relevant features for accurate predictions. Our method achieves state-of-the-art performance across 13 real-world datasets and can be seamlessly integrated into other Transformer-based and LLM-based forecasters, delivering performance improvements up to 20.7\% over original models. Code is available at this repository: https://github.com/nyuolab/Gateformer.

arxiv情報

著者 Yu-Hsiang Lan,Eric K. Oermann
発行日 2025-05-09 15:45:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Gateformer: Advancing Multivariate Time Series Forecasting through Temporal and Variate-Wise Attention with Gated Representations はコメントを受け付けていません

Learning-Augmented Algorithms for Boolean Satisfiability

要約

学習型アルゴリズムは、最悪の分析を超える最近の顕著な開発です。
このフレームワークでは、問題インスタンスには、最適なソリューションに関する部分的な情報を提供するマシンラーニングオラクルからの予測(「アドバイス」)が提供されます。目標は、このアドバイスを活用して最悪のパフォーマンスを改善するアルゴリズムを設計することです。
このフレームワーク内で、2つの形式のアドバイスを使用して、このフレームワーク内の古典的なブールの満足度(SAT)の決定と最適化の問題を研究しています。
「サブセットアドバイス」は、最適な割り当てからの変数のランダムな$ \ epsilon $分率を提供しますが、「ラベルアドバイス」は、最適な割り当てのすべての変数に対してうるさい予測を提供します。
決定の問題については、$ k $ -SATについて、サブセットアドバイスを使用して、パトゥリ、プドラック、サックス、ゼーンによるアルゴリズムのPPSZファミリーの指数関数的な実行時間を加速します。
$ c $は$ \ epsilon $と$ k $の関数である、指数のベースで$ 2^{-c} $の乗法係数を加速します。
最適化の問題については、サブセットアドバイスをブラックボックスの方法で$ \ alpha $ approximationアルゴリズムで組み込む方法を示し、近似比を$ \ alpha +(1- \ alpha)\ epsilon $に改善します。
具体的には、最大$ 2 $ -SATの$ 0.94 + \ Omega(\ epsilon)$の近似、$ 7/8 + \ omega(\ epsilon)$ for max-3 $ $ -SAT、および$ 0.79 + \ OMEGA(\ epsilon)$ for max-sat。
さらに、ラベルのアドバイスのために、平均程度が大きいインスタンスのほぼ最適な近似を取得し、それによって最近の最近の結果と最大$ 2 $ -linの結果を一般化します。

要約(オリジナル)

Learning-augmented algorithms are a prominent recent development in beyond worst-case analysis. In this framework, a problem instance is provided with a prediction (“advice”) from a machine-learning oracle, which provides partial information about an optimal solution, and the goal is to design algorithms that leverage this advice to improve worst-case performance. We study the classic Boolean satisfiability (SAT) decision and optimization problems within this framework using two forms of advice. “Subset advice’ provides a random $\epsilon$ fraction of the variables from an optimal assignment, whereas “label advice’ provides noisy predictions for all variables in an optimal assignment. For the decision problem $k$-SAT, by using the subset advice we accelerate the exponential running time of the PPSZ family of algorithms due to Paturi, Pudlak, Saks and Zane, which currently represent the state of the art in the worst case. We accelerate the running time by a multiplicative factor of $2^{-c}$ in the base of the exponent, where $c$ is a function of $\epsilon$ and $k$. For the optimization problem, we show how to incorporate subset advice in a black-box fashion with any $\alpha$-approximation algorithm, improving the approximation ratio to $\alpha + (1 – \alpha)\epsilon$. Specifically, we achieve approximations of $0.94 + \Omega(\epsilon)$ for MAX-$2$-SAT, $7/8 + \Omega(\epsilon)$ for MAX-$3$-SAT, and $0.79 + \Omega(\epsilon)$ for MAX-SAT. Moreover, for label advice, we obtain near-optimal approximation for instances with large average degree, thereby generalizing recent results on MAX-CUT and MAX-$2$-LIN.

arxiv情報

著者 Idan Attias,Xing Gao,Lev Reyzin
発行日 2025-05-09 15:54:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CC, cs.DS, cs.LG | Learning-Augmented Algorithms for Boolean Satisfiability はコメントを受け付けていません

Uncovering Model Processing Strategies with Non-Negative Per-Example Fisher Factorization

要約

NPEFF(非陰性の漁師因数分解)を紹介します。これは、モデルが予測を生成するために使用する戦略を明らかにすることを目的とする解釈可能性方法です。
Npeffは、学習したランク1陽性半定義によって表されるコンポーネントのセットを学習する新しい分解アルゴリズムを使用して、例ごとのフィッシャーマトリックスを使用します。
人間の評価と自動分析の組み合わせにより、これらのnpeffコンポーネントは、さまざまな言語モデルとテキスト処理タスクのモデル処理戦略に対応することを実証します。
さらに、モデルの処理における特定のコンポーネントの役割を選択的に破壊するために、Npeffコンポーネントからパラメーター摂動を構築する方法をさらに示します。
広範なアブレーション研究の実施に加えて、NPEFFを使用して学習の担保効果を分析および緩和するためにどのように使用できるかを示す実験を含め、NPEFFを使用して文学内学習を研究します。
さらに、勾配クラスタリングやモデルの活性化上の辞書学習のためにスパース自動エンコーダーを使用するなどのベースラインよりもNpeffの利点を示します。

要約(オリジナル)

We introduce NPEFF (Non-Negative Per-Example Fisher Factorization), an interpretability method that aims to uncover strategies used by a model to generate its predictions. NPEFF decomposes per-example Fisher matrices using a novel decomposition algorithm that learns a set of components represented by learned rank-1 positive semi-definite matrices. Through a combination of human evaluation and automated analysis, we demonstrate that these NPEFF components correspond to model processing strategies for a variety of language models and text processing tasks. We further show how to construct parameter perturbations from NPEFF components to selectively disrupt a given component’s role in the model’s processing. Along with conducting extensive ablation studies, we include experiments to show how NPEFF can be used to analyze and mitigate collateral effects of unlearning and use NPEFF to study in-context learning. Furthermore, we demonstrate the advantages of NPEFF over baselines such as gradient clustering and using sparse autoencoders for dictionary learning over model activations.

arxiv情報

著者 Michael Matena,Colin Raffel
発行日 2025-05-09 15:58:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Uncovering Model Processing Strategies with Non-Negative Per-Example Fisher Factorization はコメントを受け付けていません

MotherNet: Fast Training and Inference via Hyper-Network Transformers

要約

基礎モデルは、多くのモダリティにわたって機械学習を変換しており、コンテキスト内学習は古典的なモデルトレーニングに置き換えられています。
表形式データに関する最近の研究は、数値データの分類のための基礎モデルを構築する同様の機会を示唆しています。
ただし、既存のメタラーニングアプローチは、推論時間に関してツリーベースの方法と競合することはできません。
この論文では、合成分類タスクで訓練されたハイパーネットワークアーキテクチャであるMotherNetを提案します。これは、かつて見かけないトレーニングセットで促され、単一のフォワードパスを使用したコンテキスト学習によってトレーニングされた「子」ニューラルネットワークの重みを生成します。
通常、比較的制約されたマルチタスク設定のためにトレーニングされているほとんどの既存のハイパーネットワークとは対照的に、マザーネットは、データセット固有の勾配降下なしに任意の表面データセットにマルチクラス分類のモデルを作成できます。
マザーネットによって生成された子ネットワークは、小さなデータセットで勾配降下を使用してトレーニングされたニューラルネットワークを上回り、TABPFNによる予測と勾配ブーストなどの標準MLメソッドに匹敵します。
TABPFNの直接アプリケーションとは異なり、マザーネット生成ネットワークは、推論時間時に非常に効率的です。
また、Hyperfastは小さなデータセットで効果的なコンテキスト内学習を実行できず、データセット固有の微調整とハイパーパラメーターのチューニングに大きく依存していることを実証しますが、マザーネットは微調整またはデタセットごとのハイパーパラメーターを必要としません。

要約(オリジナル)

Foundation models are transforming machine learning across many modalities, with in-context learning replacing classical model training. Recent work on tabular data hints at a similar opportunity to build foundation models for classification for numerical data. However, existing meta-learning approaches can not compete with tree-based methods in terms of inference time. In this paper, we propose MotherNet, a hypernetwork architecture trained on synthetic classification tasks that, once prompted with a never-seen-before training set generates the weights of a trained “child” neural-network by in-context learning using a single forward pass. In contrast to most existing hypernetworks that are usually trained for relatively constrained multi-task settings, MotherNet can create models for multiclass classification on arbitrary tabular datasets without any dataset specific gradient descent. The child network generated by MotherNet outperforms neural networks trained using gradient descent on small datasets, and is comparable to predictions by TabPFN and standard ML methods like Gradient Boosting. Unlike a direct application of TabPFN, MotherNet generated networks are highly efficient at inference time. We also demonstrate that HyperFast is unable to perform effective in-context learning on small datasets, and heavily relies on dataset specific fine-tuning and hyper-parameter tuning, while MotherNet requires no fine-tuning or per-dataset hyper-parameters.

arxiv情報

著者 Andreas Müller,Carlo Curino,Raghu Ramakrishnan
発行日 2025-05-09 16:02:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, I.2.6 | MotherNet: Fast Training and Inference via Hyper-Network Transformers はコメントを受け付けていません

Generalizable Sleep Staging via Multi-Level Domain Alignment

要約

睡眠の評価と障害の診断には、自動睡眠の病期分類が不可欠です。
ほとんどの既存の方法は、特定のデータセットに依存し、他の目に見えないデータセットに一般化されるように制限されており、トレーニングデータとテストデータは同じデータセットからです。
この論文では、ドメイン一般化を自動睡眠段階に導入し、目に見えないデータセットのモデル一般化能力を改善することを目的とした一般化可能な睡眠ステージングのタスクを提案します。
既存のドメイン一般化方法に触発されて、機能アライメントのアイデアを採用し、SleepDGと呼ばれるフレームワークを解決することを提案します。
ローカルの顕著な特徴とシーケンシャル機能の両方が睡眠のステージングに重要であることを考慮すると、エポックレベルとシーケンスレベルの特徴アライメントを組み合わせたマルチレベルの特徴アライメントを提案して、ドメインに不変の特徴表現を学習します。
具体的には、エポックレベルの特徴アライメントを設計して、異なるドメイン間の各睡眠エポックの特徴分布を整列させ、異なるドメイン間のシーケンシャル機能の矛盾を最小限に抑えるシーケンスレベルの特徴アライメントを設計します。
SleepDGは5つのパブリックデータセットで検証され、最先端のパフォーマンスを実現します。

要約(オリジナル)

Automatic sleep staging is essential for sleep assessment and disorder diagnosis. Most existing methods depend on one specific dataset and are limited to be generalized to other unseen datasets, for which the training data and testing data are from the same dataset. In this paper, we introduce domain generalization into automatic sleep staging and propose the task of generalizable sleep staging which aims to improve the model generalization ability to unseen datasets. Inspired by existing domain generalization methods, we adopt the feature alignment idea and propose a framework called SleepDG to solve it. Considering both of local salient features and sequential features are important for sleep staging, we propose a Multi-level Feature Alignment combining epoch-level and sequence-level feature alignment to learn domain-invariant feature representations. Specifically, we design an Epoch-level Feature Alignment to align the feature distribution of each single sleep epoch among different domains, and a Sequence-level Feature Alignment to minimize the discrepancy of sequential features among different domains. SleepDG is validated on five public datasets, achieving the state-of-the-art performance.

arxiv情報

著者 Jiquan Wang,Sha Zhao,Haiteng Jiang,Shijian Li,Tao Li,Gang Pan
発行日 2025-05-09 16:19:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Generalizable Sleep Staging via Multi-Level Domain Alignment はコメントを受け付けていません

On the Depth of Monotone ReLU Neural Networks and ICNNs

要約

Relu Neural Networksの2つのモデルを研究します:単調ネットワーク(Relu $^+$)と入力凸ニューラルネットワーク(ICNN)。
私たちの焦点は、主に深さの観点から表現力にあり、次の下限を証明しています。
最大関数max $ _n $の場合、最大$ n $の実数を計算すると、relu $^+$ネットワークがmax $ _n $を計算できないか、ほぼ概算できないことを示します。
Max $ _n $のICNN深度の複雑さには、シャープ$ n $下限が証明されています。
また、ReluネットワークとICNNの間の深さ分離も証明しています。
$ k $ごとに、深さ-$ k $ icnnでシミュレートできないサイズ$ o(k^2)$の深さ2 reluネットワークがあります。
証明は、ニューラルネットワークと多面体の形状の間の深い接続に基づいており、三角測量の等片測定特性も使用します。

要約(オリジナル)

We study two models of ReLU neural networks: monotone networks (ReLU$^+$) and input convex neural networks (ICNN). Our focus is on expressivity, mostly in terms of depth, and we prove the following lower bounds. For the maximum function MAX$_n$ computing the maximum of $n$ real numbers, we show that ReLU$^+$ networks cannot compute MAX$_n$, or even approximate it. We prove a sharp $n$ lower bound on the ICNN depth complexity of MAX$_n$. We also prove depth separations between ReLU networks and ICNNs; for every $k$, there is a depth-2 ReLU network of size $O(k^2)$ that cannot be simulated by a depth-$k$ ICNN. The proofs are based on deep connections between neural networks and polyhedral geometry, and also use isoperimetric properties of triangulations.

arxiv情報

著者 Egor Bakaev,Florestan Brunck,Christoph Hertrich,Daniel Reichman,Amir Yehudayoff
発行日 2025-05-09 16:19:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DM, cs.LG, cs.NE, math.CO | On the Depth of Monotone ReLU Neural Networks and ICNNs はコメントを受け付けていません

A Large Language Model-Enhanced Q-learning for Capacitated Vehicle Routing Problem with Time Windows

要約

タイムウィンドウ(CVRPTW)を備えた容認された車両ルーティングの問題は、物流の配布と輸送管理に広く適用される古典的なNPハードの組み合わせ最適化問題です。
その複雑さは、車両の容量と時間の窓の制約に由来しており、従来のアプローチに大きな課題をもたらします。
大規模な言語モデル(LLMS)の進歩は、CVRPTWの近似ソリューションを見つけるための新しい可能性を提供します。
このペーパーでは、リアルタイムの緊急制約を伴うCVRPTWに対処するための新しいLLM強化Qラーニングフレームワークを提案します。
当社のソリューションでは、LLM誘導探査フェーズからQネットワークの自律最適化フェーズに移行する適応型2フェーズトレーニングメカニズムを導入します。
信頼性を確保するために、LLMSの考え方(COT)に基づいた3層の自己修正メカニズムを設計します:構文検証、意味的検証、および物理的制約施行。
さらに、LLMSによって生成されたエクスペリエンスのリプレイに、アーキテクチャにおけるLLMの規制役割を増幅することも優先順位を付けました。
実験結果は、私たちのフレームワークが、従来のQラーニングと比較してコストの平均コストを7.3%削減し、収束に必要なトレーニングステップが少ないことを示しています。

要約(オリジナル)

The Capacitated Vehicle Routing Problem with Time Windows (CVRPTW) is a classic NP-hard combinatorial optimization problem widely applied in logistics distribution and transportation management. Its complexity stems from the constraints of vehicle capacity and time windows, which pose significant challenges to traditional approaches. Advances in Large Language Models (LLMs) provide new possibilities for finding approximate solutions to CVRPTW. This paper proposes a novel LLM-enhanced Q-learning framework to address the CVRPTW with real-time emergency constraints. Our solution introduces an adaptive two-phase training mechanism that transitions from the LLM-guided exploration phase to the autonomous optimization phase of Q-network. To ensure reliability, we design a three-tier self-correction mechanism based on the Chain-of-Thought (CoT) for LLMs: syntactic validation, semantic verification, and physical constraint enforcement. In addition, we also prioritized replay of the experience generated by LLMs to amplify the regulatory role of LLMs in the architecture. Experimental results demonstrate that our framework achieves a 7.3\% average reduction in cost compared to traditional Q-learning, with fewer training steps required for convergence.

arxiv情報

著者 Linjiang Cao,Maonan Wang,Xi Xiong
発行日 2025-05-09 16:45:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | A Large Language Model-Enhanced Q-learning for Capacitated Vehicle Routing Problem with Time Windows はコメントを受け付けていません

Active Perception for Tactile Sensing: A Task-Agnostic Attention-Based Approach

要約

人間は、触れたオブジェクトの特性をマッピングして識別するために、触覚探査を広範囲に使用します。
ロボット工学では、オブジェクト分類、形状再構築、操作などのタスクの視覚を補完する重要な研究領域として、アクティブな触覚認識が浮上しています。
この作業では、TAP(タスクと存在するアクティブな知覚)を紹介します。これは、部分的に観察可能な環境によってもたらされる課題に対処するために、強化学習(RL)と変圧器ベースのアーキテクチャを活用する新しいフレームワークです。
TAPは、統合された最適化目標内でソフトアクタークリティック(SAC)およびCrossQアルゴリズムを統合し、認識モジュールと意思決定ポリシーを共同でトレーニングします。
設計上、TAPは完全にタスクに依存しており、原則として、アクティブな知覚問題に一般化できます。
おもちゃの例や、触覚MNISTベンチマークからの3Dモデルの触覚的探索を含む現実的なアプリケーションなど、多様なタスクを介してタップを評価します。
実験は、タップの有効性を示しており、触覚ムニストの触覚桁認識タスクと触覚ポーズ推定タスクの高い精度を達成します。
これらの発見は、ロボット工学におけるアクティブな触覚認識を進めるための多用途で一般化可能なフレームワークとしてのTAPの可能性を強調しています。

要約(オリジナル)

Humans make extensive use of haptic exploration to map and identify the properties of the objects that we touch. In robotics, active tactile perception has emerged as an important research domain that complements vision for tasks such as object classification, shape reconstruction, and manipulation. This work introduces TAP (Task-agnostic Active Perception) — a novel framework that leverages reinforcement learning (RL) and transformer-based architectures to address the challenges posed by partially observable environments. TAP integrates Soft Actor-Critic (SAC) and CrossQ algorithms within a unified optimization objective, jointly training a perception module and decision-making policy. By design, TAP is completely task-agnostic and can, in principle, generalize to any active perception problem. We evaluate TAP across diverse tasks, including toy examples and realistic applications involving haptic exploration of 3D models from the Tactile MNIST benchmark. Experiments demonstrate the efficacy of TAP, achieving high accuracies on the Tactile MNIST haptic digit recognition task and a tactile pose estimation task. These findings underscore the potential of TAP as a versatile and generalizable framework for advancing active tactile perception in robotics.

arxiv情報

著者 Tim Schneider,Cristiana de Farias,Roberto Calandra,Liming Chen,Jan Peters
発行日 2025-05-09 16:49:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Active Perception for Tactile Sensing: A Task-Agnostic Attention-Based Approach はコメントを受け付けていません

Auto Tensor Singular Value Thresholding: A Non-Iterative and Rank-Free Framework for Tensor Denoising

要約

分類、最適化、予測などの最新のデータ駆動型タスクでは、本質的なノイズの影響を軽減することは、予測精度を改善するために重要です。
多数の除去技術が開発されていますが、実際のデータセットの上昇する次元は、データ構造と精度を維持するための従来のマトリックスベースの方法を制限します。
この課題により、テンソルベースのアプローチへの関心が高まり、マルチウェイデータの関係を自然にキャプチャしています。
ただし、古典的なテンソル分解方法(HOSVD、HOOIなど)は通常、事前に指定されたランクと反復的最適化を必要とし、計算上の高価で実用的ではありません。
この作業では、これらの制限を回避するテンソルデータの新しい低ランク近似法を提案します。
私たちのアプローチは、統計的に接地された特異値のしきい値をモードごとの行列化に適用し、事前のランク仕様や反復改良を必要とせずに重要なコンポーネントの自動抽出を可能にします。
合成および実世界のテンソルに関する実験は、特に騒々しい高次元設定で、推定の精度と計算効率の観点から、既存の手法を一貫して上回ることを示しています。

要約(オリジナル)

In modern data-driven tasks such as classification, optimization, and forecasting, mitigating the effects of intrinsic noise is crucial for improving predictive accuracy. While numerous denoising techniques have been developed, the rising dimensionality of real-world datasets limits conventional matrix-based methods in preserving data structure and accuracy. This challenge has led to increasing interest in tensor-based approaches, which naturally capture multi-way data relationships. However, classical tensor decomposition methods (e.g., HOSVD, HOOI) typically require pre-specified ranks and iterative optimization, making them computationally expensive and less practical. In this work, we propose a novel low-rank approximation method for tensor data that avoids these limitations. Our approach applies statistically grounded singular value thresholding to mode-wise matricizations, enabling automatic extraction of significant components without requiring prior rank specification or iterative refinement. Experiments on synthetic and real-world tensors show that our method consistently outperforms existing techniques in terms of estimation accuracy and computational efficiency, especially in noisy high-dimensional settings.

arxiv情報

著者 Hiroki Hasegawa,Yukihiko Okada
発行日 2025-05-09 17:30:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Auto Tensor Singular Value Thresholding: A Non-Iterative and Rank-Free Framework for Tensor Denoising はコメントを受け付けていません

Leveraging Multi-Task Learning for Multi-Label Power System Security Assessment

要約

このペーパーでは、マルチタスク学習(MTL)を使用した電力システムセキュリティ評価に対する新しいアプローチを紹介し、問題をマルチラベル分類タスクとして再定式化します。
提案されたMTLフレームワークは、静的、電圧、過渡、および小型の安定性を同時に評価し、最先端の機械学習方法に関して精度と解釈性の両方を改善します。
共有エンコーダーと複数のデコーダーで構成され、安定性タスク間の知識転送を可能にします。
IEEE 68-BUSシステムでの実験は、現存する最先端のアプローチと比較して、提案された方法の測定可能な優れた性能を示しています。

要約(オリジナル)

This paper introduces a novel approach to the power system security assessment using Multi-Task Learning (MTL), and reformulating the problem as a multi-label classification task. The proposed MTL framework simultaneously assesses static, voltage, transient, and small-signal stability, improving both accuracy and interpretability with respect to the most state of the art machine learning methods. It consists of a shared encoder and multiple decoders, enabling knowledge transfer between stability tasks. Experiments on the IEEE 68-bus system demonstrate a measurable superior performance of the proposed method compared to the extant state-of-the-art approaches.

arxiv情報

著者 Muhy Eddin Za’ter,Amir Sajad,Bri-Mathias Hodge
発行日 2025-05-09 17:36:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY | Leveraging Multi-Task Learning for Multi-Label Power System Security Assessment はコメントを受け付けていません