clem:todd: A Framework for the Systematic Benchmarking of LLM-Based Task-Oriented Dialogue System Realisations

要約

命令チューニングされた大手言語モデル(LLMS)の出現により、ダイアログシステムの分野が進歩し、現実的なユーザーシミュレーションと堅牢なマルチターン会話エージェントの両方が可能になりました。
ただし、既存の研究では、単一のユーザーシミュレータまたはアーキテクチャと構成全体の洞察の一般化可能性を設計する特定のシステムに焦点を当てて、これらのコンポーネントを単独で評価します。
この作業では、一貫した条件下でダイアログシステムを体系的に評価するための柔軟なフレームワークであるクレムトッド(タスク指向のダイアログシステム開発のためのチャット最適化LLMS)を提案します。
Clem Toddは、文献からの既存のモデルであろうと、新しく開発されたモデルであろうと、ユーザーシミュレーターとダイアログシステムの組み合わせを介した詳細なベンチマークを可能にします。
プラグアンドプレイの統合をサポートし、均一なデータセット、評価メトリック、および計算上の制約を保証します。
この統合されたセットアップ内で既存のタスク指向のダイアログシステムを再評価し、3つの新たに提案されたダイアログシステムを同じ評価パイプラインに統合することにより、クレムトッドの柔軟性を紹介します。
私たちの結果は、アーキテクチャ、スケール、および促進戦略が対話のパフォーマンスにどのように影響するかについての実用的な洞察を提供し、効率的かつ効果的な会話型AIシステムを構築するための実用的なガイダンスを提供します。

要約(オリジナル)

The emergence of instruction-tuned large language models (LLMs) has advanced the field of dialogue systems, enabling both realistic user simulations and robust multi-turn conversational agents. However, existing research often evaluates these components in isolation-either focusing on a single user simulator or a specific system design-limiting the generalisability of insights across architectures and configurations. In this work, we propose clem todd (chat-optimized LLMs for task-oriented dialogue systems development), a flexible framework for systematically evaluating dialogue systems under consistent conditions. clem todd enables detailed benchmarking across combinations of user simulators and dialogue systems, whether existing models from literature or newly developed ones. It supports plug-and-play integration and ensures uniform datasets, evaluation metrics, and computational constraints. We showcase clem todd’s flexibility by re-evaluating existing task-oriented dialogue systems within this unified setup and integrating three newly proposed dialogue systems into the same evaluation pipeline. Our results provide actionable insights into how architecture, scale, and prompting strategies affect dialogue performance, offering practical guidance for building efficient and effective conversational AI systems.

arxiv情報

著者 Chalamalasetti Kranti,Sherzod Hakimov,David Schlangen
発行日 2025-05-08 17:36:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | clem:todd: A Framework for the Systematic Benchmarking of LLM-Based Task-Oriented Dialogue System Realisations はコメントを受け付けていません

UKElectionNarratives: A Dataset of Misleading Narratives Surrounding Recent UK General Elections

要約

誤解を招く物語は、有権者が候補者と政党をどのように知覚するかに影響を与える可能性があるため、選挙中に世論を形作る上で重要な役割を果たします。
これには、これらの物語を正確に検出する必要性が必要です。
これに対処するために、ヨーロッパでの最近の選挙中に流通した共通の誤解を招く物語の最初の分類法を紹介します。
この分類法に基づいて、Ukelection-narrativeを構築および分析します。2019年と2024年の英国の総選挙中に流通した人間が発表した誤解を招く物語の最初のデータセットです。
最後に、潜在的なユースケースについて説明し、提案されたコードブックとデータセットを使用して、将来の研究方向の推奨事項を作成します。

要約(オリジナル)

Misleading narratives play a crucial role in shaping public opinion during elections, as they can influence how voters perceive candidates and political parties. This entails the need to detect these narratives accurately. To address this, we introduce the first taxonomy of common misleading narratives that circulated during recent elections in Europe. Based on this taxonomy, we construct and analyse UKElectionNarratives: the first dataset of human-annotated misleading narratives which circulated during the UK General Elections in 2019 and 2024. We also benchmark Pre-trained and Large Language Models (focusing on GPT-4o), studying their effectiveness in detecting election-related misleading narratives. Finally, we discuss potential use cases and make recommendations for future research directions using the proposed codebook and dataset.

arxiv情報

著者 Fatima Haouari,Carolina Scarton,Nicolò Faggiani,Nikolaos Nikolaidis,Bonka Kotseva,Ibrahim Abu Farha,Jens Linge,Kalina Bontcheva
発行日 2025-05-08 17:51:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SI | UKElectionNarratives: A Dataset of Misleading Narratives Surrounding Recent UK General Elections はコメントを受け付けていません

Bring Reason to Vision: Understanding Perception and Reasoning through Model Merging

要約

ビジョン言語モデル(VLM)は、視覚的知覚と、大きな言語モデル(LLM)の推論などの一般的な能力を組み合わせています。
ただし、これらの2つの能力を組み合わせて貢献できるメカニズムは、よく理解されていないままです。
この作業では、さまざまなモデルのパラメーターを接続するモデル合併を通じて、知覚と推論を構成することを探ります。
同じ種類のモデルのマージに焦点を当てた以前の作品とは異なり、モダリティ全体でモデルをマージすることを提案し、LLMの推論能力をVLMに組み込むことを可能にします。
広範な実験を通じて、モデルの合併は、トレーニングのない方法でLLMSからVLMSに推論能力を伝達するための成功した経路を提供することを実証します。
さらに、マージされたモデルを利用して、知覚と推論の内部メカニズムと、マージがそれにどのように影響するかを理解します。
推論は、主にモデルの初期層で主にエンコードされていることがわかりますが、推論は中間層から層の層によって大部分が促進されます。
マージした後、すべての層が推論に寄与し始めるのに対し、レイヤー間の知覚能力の分布はほとんど変わらないままであることがわかります。
これらの観察結果は、マルチモーダルの統合と解釈のためのツールとしてのモデルマージの可能性に光を当てました。

要約(オリジナル)

Vision-Language Models (VLMs) combine visual perception with the general capabilities, such as reasoning, of Large Language Models (LLMs). However, the mechanisms by which these two abilities can be combined and contribute remain poorly understood. In this work, we explore to compose perception and reasoning through model merging that connects parameters of different models. Unlike previous works that often focus on merging models of the same kind, we propose merging models across modalities, enabling the incorporation of the reasoning capabilities of LLMs into VLMs. Through extensive experiments, we demonstrate that model merging offers a successful pathway to transfer reasoning abilities from LLMs to VLMs in a training-free manner. Moreover, we utilize the merged models to understand the internal mechanism of perception and reasoning and how merging affects it. We find that perception capabilities are predominantly encoded in the early layers of the model, whereas reasoning is largely facilitated by the middle-to-late layers. After merging, we observe that all layers begin to contribute to reasoning, whereas the distribution of perception abilities across layers remains largely unchanged. These observations shed light on the potential of model merging as a tool for multimodal integration and interpretation.

arxiv情報

著者 Shiqi Chen,Jinghan Zhang,Tongyao Zhu,Wei Liu,Siyang Gao,Miao Xiong,Manling Li,Junxian He
発行日 2025-05-08 17:56:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Bring Reason to Vision: Understanding Perception and Reasoning through Model Merging はコメントを受け付けていません

MARK: Memory Augmented Refinement of Knowledge

要約

大規模な言語モデル(LLM)は、特殊なタスクを支援しますが、コストのかかる微調整なしで進化するドメインの知識と一致するのに苦労しています。
ドメインの知識は次のとおりです。知識:不変の事実(たとえば、「石は固体」)および一般的に受け入れられている原則(例:倫理基準)。
洗練されたメモリ:ビジネスニーズと現実世界の変化によって形作られた進化する洞察。
ただし、ドメインの専門家の深い微妙な理解とシステムのドメイン知識の間には、多くの場合、大きなギャップが存在し、正確な情報検索とアプリケーションを妨げる可能性があります。
私たちの記憶力のある知識の洗練(MARK)フレームワークにより、LLMは、心の社会に触発された構造化された洗練された記憶を活用することにより、再訓練なしに継続的に学習することができます。
マークは専門のエージェントを通じて動作し、それぞれが明確な役割を果たします。残留洗練されたメモリエージェント:ドメイン固有の洞察を保存および取得して、時間の経過とともにコンテキストを維持します。
ユーザー質問洗練されたメモリエージェント:ユーザーが提供する事実、略語、および用語をより良い理解のためにキャプチャします。
LLM応答洗練されたメモリエージェント:洗練とパーソナライズのための応答から重要な要素を抽出します。
これらのエージェントは、保存された洗練されたメモリを分析し、パターンを検出し、矛盾を解決し、応答の精度を向上させます。
Remencyや頻度などの時間的要因は、時代遅れの洞察を破棄しながら、関連情報を優先します。
マークは複数の方法でLLMを強化します。グラウンドトゥルース戦略:構造化された参照を確立することにより幻覚を減らします。
ドメイン固有の適応:公開データセットには独自の洞察が存在しないヘルスケア、法律、製造などの分野に不可欠。
パーソナライズされたAIアシスタント:ユーザーの好みを思い出し、時間の経過とともに一貫した応答を確保することにより、仮想アシスタントを改善します。

要約(オリジナル)

Large Language Models (LLMs) assist in specialized tasks but struggle to align with evolving domain knowledge without costly fine-tuning. Domain knowledge consists of: Knowledge: Immutable facts (e.g., ‘A stone is solid’) and generally accepted principles (e.g., ethical standards); Refined Memory: Evolving insights shaped by business needs and real-world changes. However, a significant gap often exists between a domain expert’s deep, nuanced understanding and the system’s domain knowledge, which can hinder accurate information retrieval and application. Our Memory-Augmented Refinement of Knowledge (MARK) framework enables LLMs to continuously learn without retraining by leveraging structured refined memory, inspired by the Society of Mind. MARK operates through specialized agents, each serving a distinct role: Residual Refined Memory Agent: Stores and retrieves domain-specific insights to maintain context over time; User Question Refined Memory Agent: Captures user-provided facts, abbreviations, and terminology for better comprehension; LLM Response Refined Memory Agent: Extracts key elements from responses for refinement and personalization. These agents analyse stored refined memory, detect patterns, resolve contradictions, and improve response accuracy. Temporal factors like recency and frequency prioritize relevant information while discarding outdated insights. MARK enhances LLMs in multiple ways: Ground Truth Strategy: Reduces hallucinations by establishing a structured reference; Domain-Specific Adaptation: Essential for fields like healthcare, law, and manufacturing, where proprietary insights are absent from public datasets; Personalized AI Assistants: Improves virtual assistants by remembering user preferences, ensuring coherent responses over time.

arxiv情報

著者 Anish Ganguli,Prabal Deb,Debleena Banerjee
発行日 2025-05-08 12:28:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | MARK: Memory Augmented Refinement of Knowledge はコメントを受け付けていません

Stochastic Variational Propagation: Local, Scalable and Efficient Alternative to Backpropagation

要約

Backpropagation(BP)は深い学習の基礎ですが、グローバル勾配同期への依存はスケーラビリティを制限し、重要なメモリオーバーヘッドを課します。
確率的変動伝播(SVP)を提案します。これは、トレーニングを階層的変異推論として再構成するスケーラブルな代替手段です。
SVPは、層の活性化を潜在変数として扱い、ローカルエビデンスの下限(ELBO)を最適化し、グローバルな一貫性を維持しながら、独立したローカルの更新を可能にします。
ただし、レイヤーごとのエルボにKL発散を直接適用すると、過度の圧縮により、層間の表現崩壊がリスクされます。
これを防ぐために、SVPは固定されたランダム行列を介して低次元空間にアクティブ化をプロジェクトし、情報の保存と表現の多様性を確保します。
層間の一貫性の機能アライメント損失と組み合わせると、SVPは多様なアーキテクチャ(MLP、CNNS、変圧器)およびデータセット(MNISTからImagENET)全体でBPとの競争精度を達成し、メモリの使用量を最大4Xで削減し、鱗可能性を大幅に向上させます。
さらに広く言えば、SVPは、よりモジュール式で解釈可能なニューラルネットワーク設計への経路を開いて、深い表現学習に確率論的な視点を導入します。

要約(オリジナル)

Backpropagation (BP) is the cornerstone of deep learning, but its reliance on global gradient synchronization limits scalability and imposes significant memory overhead. We propose Stochastic Variational Propagation (SVP), a scalable alternative that reframes training as hierarchical variational inference. SVP treats layer activations as latent variables and optimizes local Evidence Lower Bounds (ELBOs), enabling independent, local updates while preserving global coherence. However, directly applying KL divergence in layer-wise ELBOs risks inter-layer’s representation collapse due to excessive compression. To prevent this, SVP projects activations into low-dimensional spaces via fixed random matrices, ensuring information preservation and representational diversity. Combined with a feature alignment loss for inter-layer consistency, SVP achieves competitive accuracy with BP across diverse architectures (MLPs, CNNs, Transformers) and datasets (MNIST to ImageNet), reduces memory usage by up to 4x, and significantly improves scalability. More broadly, SVP introduces a probabilistic perspective to deep representation learning, opening pathways toward more modular and interpretable neural network design.

arxiv情報

著者 Bojian Yin,Federico Corradi
発行日 2025-05-08 12:32:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Stochastic Variational Propagation: Local, Scalable and Efficient Alternative to Backpropagation はコメントを受け付けていません

Revealing Weaknesses in Text Watermarking Through Self-Information Rewrite Attacks

要約

テキストの透かしは、大規模な言語モデル(LLM)のサンプリングプロセスを制御することにより、統計的信号をテキストに微妙に埋め込み、透かし式検出器が指定されたモデルによって出力が生成されたことを確認できるようにすることを目的としています。
これらの透かしのアルゴリズムの堅牢性は、それらの有効性を評価する重要な要因となっています。
現在のテキスト透かし式アルゴリズムは、テキストの品質を確保するために、高エントロピートークンに透かしを埋め込んでいます。
この論文では、この一見良性のデザインが攻撃者によって搾取される可能性があることを明らかにし、透かしの堅牢性に大きなリスクをもたらします。
一般的な効率的な言い換え攻撃、自己情報の書き換え攻撃(SIRA)を導入します。これは、各トークンの自己情報を計算して潜在的なパターントークンを特定し、ターゲット攻撃を実行することにより脆弱性を活用します。
私たちの仕事は、現在の透け式アルゴリズムで広く一般的な脆弱性を明らかにしています。
実験結果は、SIRAが最近の7つの透かし方で100%近くの攻撃成功率を達成していることを示しています。
私たちのアプローチでは、透かしアルゴリズムや透かし型LLMへのアクセスは必要ありません。また、モバイルレベルのモデルでさえ、攻撃モデルとして任意のLLMにシームレスに転送できます。
私たちの調査結果は、より堅牢な透かしの緊急の必要性を強調しています。

要約(オリジナル)

Text watermarking aims to subtly embed statistical signals into text by controlling the Large Language Model (LLM)’s sampling process, enabling watermark detectors to verify that the output was generated by the specified model. The robustness of these watermarking algorithms has become a key factor in evaluating their effectiveness. Current text watermarking algorithms embed watermarks in high-entropy tokens to ensure text quality. In this paper, we reveal that this seemingly benign design can be exploited by attackers, posing a significant risk to the robustness of the watermark. We introduce a generic efficient paraphrasing attack, the Self-Information Rewrite Attack (SIRA), which leverages the vulnerability by calculating the self-information of each token to identify potential pattern tokens and perform targeted attack. Our work exposes a widely prevalent vulnerability in current watermarking algorithms. The experimental results show SIRA achieves nearly 100% attack success rates on seven recent watermarking methods with only 0.88 USD per million tokens cost. Our approach does not require any access to the watermark algorithms or the watermarked LLM and can seamlessly transfer to any LLM as the attack model, even mobile-level models. Our findings highlight the urgent need for more robust watermarking.

arxiv情報

著者 Yixin Cheng,Hongcheng Guo,Yangming Li,Leonid Sigal
発行日 2025-05-08 12:39:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Revealing Weaknesses in Text Watermarking Through Self-Information Rewrite Attacks はコメントを受け付けていません

A highly maneuverable flying squirrel drone with agility-improving foldable wings

要約

ドローンは、ほとんどの空中航空機と同様に、スラスト機能が限られているため、アジャイル飛行を達成する際に固有の欠点に直面しています。
これらの物理的制約は、制御アルゴリズムのみの進歩を通じて完全に対処することはできません。
翼のある空飛ぶリスからインスピレーションを得て、このペーパーでは、敏ility性を向上させる折りたたみ式の翼を備えた非常に操縦可能なドローンを提案しています。
従来のプロペラシステムと、スラストウィング調整制御(TWCC)フレームワークを通じて折りたたみ可能な翼調整された折りたたみ可能な翼の間の共同制御を活用することにより、制御可能な加速セットが拡張され、伝統的な翼のないドローンで達成できない突然の垂直力の生成が可能になります。
折りたたみ可能な翼の複雑な空力は、物理支援の再発性ニューラルネットワーク(PARNN)を使用してモデル化されており、攻撃角(AOA)を調整して、翼の実際の空力挙動に合わせます。
これらの翼を適切に展開することによって生成される追加の空気抵抗は、提案された「フライングリス」ドローンの追跡性能を大幅に改善します。
このモデルは実際の飛行データでトレーニングされており、フラットプレートの空力原理が組み込まれています。
実験結果は、提案されているフライングリスドローンが、従来の翼のないドローンと比較して、ルート平均平方根誤差(RMSE)で測定されるように、追跡性能の13.1%の改善を達成することを示しています。
デモビデオはYouTubeで入手できます:https://youtu.be/o8nrip18azy。

要約(オリジナル)

Drones, like most airborne aerial vehicles, face inherent disadvantages in achieving agile flight due to their limited thrust capabilities. These physical constraints cannot be fully addressed through advancements in control algorithms alone. Drawing inspiration from the winged flying squirrel, this paper proposes a highly maneuverable drone equipped with agility-enhancing foldable wings. By leveraging collaborative control between the conventional propeller system and the foldable wings-coordinated through the Thrust-Wing Coordination Control (TWCC) framework-the controllable acceleration set is expanded, enabling the generation of abrupt vertical forces that are unachievable with traditional wingless drones. The complex aerodynamics of the foldable wings are modeled using a physics-assisted recurrent neural network (paRNN), which calibrates the angle of attack (AOA) to align with the real aerodynamic behavior of the wings. The additional air resistance generated by appropriately deploying these wings significantly improves the tracking performance of the proposed ‘flying squirrel’ drone. The model is trained on real flight data and incorporates flat-plate aerodynamic principles. Experimental results demonstrate that the proposed flying squirrel drone achieves a 13.1% improvement in tracking performance, as measured by root mean square error (RMSE), compared to a conventional wingless drone. A demonstration video is available on YouTube: https://youtu.be/O8nrip18azY.

arxiv情報

著者 Dohyeon Lee,Jun-Gill Kang,Soohee Han
発行日 2025-05-08 12:44:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | A highly maneuverable flying squirrel drone with agility-improving foldable wings はコメントを受け付けていません

Public Perceptions of Fairness Metrics Across Borders

要約

あなたのコンテキストで適切に適用される公平性指標はどれですか?
結果が確立された公平性メトリックに準拠している場合でも、公平性の認識に関する不一致の事例があるかもしれません。
公平性の認識を持つ公平性指標を評価するために、いくつかのアンケートベースの調査が実施されています。
ただし、これらの調査は範囲が限られており、1つの国内の数百人の参加者しか含まれていませんでした。
この研究では、意思決定シナリオにおけるさまざまな公平性メトリックの一般の認識を評価するために、国際調査を実施します。
中国、フランス、日本、米国のそれぞれの1,000人の参加者から回答を収集し、合計4,000人の参加者を集めて、公平性指標の好みを分析しました。
私たちの調査は、4つの公平性メトリックと組み合わせた3つの異なるシナリオで構成されています。
この調査では、個人の属性と公平性指標の選択との関係を調査し、これらの好みに対する国家的文脈の重要な影響を明らかにします。

要約(オリジナル)

Which fairness metrics are appropriately applicable in your contexts? There may be instances of discordance regarding the perception of fairness, even when the outcomes comply with established fairness metrics. Several questionnaire-based surveys have been conducted to evaluate fairness metrics with human perceptions of fairness. However, these surveys were limited in scope, including only a few hundred participants within a single country. In this study, we conduct an international survey to evaluate public perceptions of various fairness metrics in decision-making scenarios. We collected responses from 1,000 participants in each of China, France, Japan, and the United States, amassing a total of 4,000 participants, to analyze the preferences of fairness metrics. Our survey consists of three distinct scenarios paired with four fairness metrics. This investigation explores the relationship between personal attributes and the choice of fairness metrics, uncovering a significant influence of national context on these preferences.

arxiv情報

著者 Yuya Sasaki,Sohei Tokuno,Haruka Maeda,Kazuki Nakajima,Osamu Sakura,George Fletcher,Mykola Pechenizkiy,Panagiotis Karras,Irina Shklovski
発行日 2025-05-08 12:50:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Public Perceptions of Fairness Metrics Across Borders はコメントを受け付けていません

Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt

要約

人工知能(AI)システムは、彼らの決定が本当の結果をもたらす位置にますます配置されています。
したがって、彼らが安全で倫理的に受け入れられる方法で動作することを保証することが重要です。
ただし、ほとんどのソリューションは、すべてのサイズの「アライメント」の一形態です。
私たちは、永続的な道徳的多様性を見落とすそのようなシステムが、抵抗を引き起こし、信頼を侵食し、私たちの機関を不安定にすることを心配しています。
この論文は、根本的な問題を、しばしば認められている合理的収束の公理にたどります。理想的な条件下では、合理的なエージェントが単一の倫理に関する会話の限界に収束するという考えです。
その前提をオプションと疑わしいものとして扱うことで、私たちは適切性の枠組みと呼ばれるものを提案します。紛争理論、文化的進化、マルチエージェントシステム、および制度経済に基づいた代替アプローチです。
適切性のフレームワークは、持続的な意見の相違を通常のケースとして扱い、4つの原則を適用することにより、その設計を扱います。
ここでは、これらの設計原則を採用することは、主な整合性メタファーを道徳的統一から紛争管理のより生産的なメタファーにシフトする良い方法であり、このステップを踏むことは望ましく、緊急であると主張しています。

要約(オリジナル)

Artificial Intelligence (AI) systems are increasingly placed in positions where their decisions have real consequences, e.g., moderating online spaces, conducting research, and advising on policy. Ensuring they operate in a safe and ethically acceptable fashion is thus critical. However, most solutions have been a form of one-size-fits-all ‘alignment’. We are worried that such systems, which overlook enduring moral diversity, will spark resistance, erode trust, and destabilize our institutions. This paper traces the underlying problem to an often-unstated Axiom of Rational Convergence: the idea that under ideal conditions, rational agents will converge in the limit of conversation on a single ethics. Treating that premise as both optional and doubtful, we propose what we call the appropriateness framework: an alternative approach grounded in conflict theory, cultural evolution, multi-agent systems, and institutional economics. The appropriateness framework treats persistent disagreement as the normal case and designs for it by applying four principles: (1) contextual grounding, (2) community customization, (3) continual adaptation, and (4) polycentric governance. We argue here that adopting these design principles is a good way to shift the main alignment metaphor from moral unification to a more productive metaphor of conflict management, and that taking this step is both desirable and urgent.

arxiv情報

著者 Joel Z. Leibo,Alexander Sasha Vezhnevets,William A. Cunningham,Sébastien Krier,Manfred Diaz,Simon Osindero
発行日 2025-05-08 12:55:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | Societal and technological progress as sewing an ever-growing, ever-changing, patchy, and polychrome quilt はコメントを受け付けていません

LAPSO: A Unified Optimization View for Learning-Augmented Power System Operations

要約

再生可能エネルギーの高い浸透により、従来のモデルベースの電力システム運用は、経済的で安定した堅牢な決定を提供するために挑戦されています。
機械学習は、これらの課題に対処するために複雑なダイナミクスをキャプチャするための強力なモデリングツールとして浮上しています。
ただし、その個別の設計には、既存の方法との体系的な統合が欠けていることがよくあります。
ギャップを埋めるために、このペーパーでは、学習式電力システム運用の全体的な枠組みを提案します(Lapso、Lap-Soと発音)。
ネイティブの最適化の観点を採用するLapsoは、動作段階に集中しており、トレーニングと推論の両方の段階で機械学習とモデルベースの最適化の目的を統合しながら、予測、動作、制御などの一時的にサイロ化された電力システムタスクの境界を破ることを目指しています。
体系的な分析とシミュレーションは、安定性が制約された最適化(SCO)や目的ベースの予測(OBF)などの新しい統合アルゴリズムを設計する際にLAPSOを適用することの有効性を実証し、異なる不合格のソースのエンドツーエンドのトレースを可能にします。
さらに、専用のPythonパッケージLAPSOが導入され、学習可能なコンポーネントを使用して既存の電力システム最適化モデルを自動的に増強します。
すべてのコードとデータは、https://github.com/xuwkk/lapso_expで入手できます。

要約(オリジナル)

With the high penetration of renewables, traditional model-based power system operation is challenged to deliver economic, stable, and robust decisions. Machine learning has emerged as a powerful modeling tool for capturing complex dynamics to address these challenges. However, its separate design often lacks systematic integration with existing methods. To fill the gap, this paper proposes a holistic framework of Learning-Augmented Power System Operations (LAPSO, pronounced as Lap-So). Adopting a native optimization perspective, LAPSO is centered on the operation stage and aims to break the boundary between temporally siloed power system tasks, such as forecast, operation and control, while unifying the objectives of machine learning and model-based optimizations at both training and inference stages. Systematic analysis and simulations demonstrate the effectiveness of applying LAPSO in designing new integrated algorithms, such as stability-constrained optimization (SCO) and objective-based forecasting (OBF), while enabling end-to-end tracing of different sources of uncertainties. In addition, a dedicated Python package-lapso is introduced to automatically augment existing power system optimization models with learnable components. All code and data are available at https://github.com/xuwkk/lapso_exp.

arxiv情報

著者 Wangkun Xu,Zhongda Chu,Fei Teng
発行日 2025-05-08 13:00:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SY, eess.SY | LAPSO: A Unified Optimization View for Learning-Augmented Power System Operations はコメントを受け付けていません