Measuring temporal effects of agent knowledge by date-controlled tool use

要約

知識の蓄積と更新には、時間的な進行が不可欠である。ウェブ検索はエージェントの知識の基盤として頻繁に採用されるが、不適切な設定はエージェントの応答の質に影響を与える。ここでは、大規模言語モデル(LLM)エージェントの知識のばらつきを測定するためのストレステストとして、異なる日付制御ツール(DCT)を用いてエージェントの動作を評価する。LLMエージェントは、ウェブ検索を利用して科学論文の抄録を完成させる。我々は、検索エンジンの時間性は、ツール依存のエージェント性能に変換されるが、ベースモデルの選択と思考連鎖プロンプトのような明示的な推論指示によって軽減できることを示す。我々の結果は、エージェントの設計と評価は、動的な視点を持ち、信頼性を確保するために、外部リソースの時間的影響を考慮する手段を実装すべきであることを示している。

要約(オリジナル)

Temporal progression is an integral part of knowledge accumulation and update. Web search is frequently adopted as grounding for agent knowledge, yet an improper configuration affects the quality of the agent’s responses. Here, we assess the agent behavior using distinct date-controlled tools (DCTs) as stress test to measure the knowledge variability of large language model (LLM) agents. We demonstrate the temporal effects of an LLM agent as a writing assistant, which uses web search to complete scientific publication abstracts. We show that the temporality of search engine translates into tool-dependent agent performance but can be alleviated with base model choice and explicit reasoning instructions such as chain-of-thought prompting. Our results indicate that agent design and evaluations should take a dynamical view and implement measures to account for the temporal influence of external resources to ensure reliability.

arxiv情報

著者 R. Patrick Xian,Qiming Cui,Stefan Bauer,Reza Abbasi-Asl
発行日 2025-04-03 17:53:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.IR | Measuring temporal effects of agent knowledge by date-controlled tool use はコメントを受け付けていません

No Free Lunch with Guardrails

要約

大規模言語モデル(LLM)や生成AIが広く採用されるようになるにつれ、ガードレールはその安全な使用を保証する重要なツールとして浮上してきた。しかし、ガードレールを追加することは、トレードオフがないわけではありません。より強力なセキュリティ対策は、ユーザビリティを低下させる可能性があり、より柔軟なシステムは、敵対的な攻撃のためのギャップを残す可能性があります。この研究では、現在のガードレールが、実用的な有用性を維持しながら、悪用を効果的に防止しているかどうかを調査する。これらのトレードオフを評価するフレームワークを導入し、異なるガードレールがリスク、セキュリティ、ユーザビリティのバランスをどのようにとるかを測定し、効率的なガードレールを構築する。 我々の発見は、ガードレールにタダ飯はないことを確認するものであり、セキュリティの強化はしばしばユーザビリティを犠牲にするものである。この問題に対処するため、我々は使いやすさを維持しながらリスクを最小限に抑える、より良いガードレールを設計するための青写真を提案する。Azure Content Safety、Bedrock Guardrails、OpenAIのModeration API、Guardrails AI、Nemo Guardrails、Enkrypt AI guardrailsなど、様々な業界のガードレールを評価する。さらに、GPT-4o、Gemini 2.0-Flash、Claude 3.5-Sonnet、Mistral Large-LatestなどのLLMが、単純なプロンプト、詳細なプロンプト、思考連鎖(CoT)推論を伴う詳細なプロンプトなど、さまざまなシステムプロンプトの下でどのように応答するかを評価する。我々の研究は、異なるガードレールがどのように機能するかの明確な比較を提供し、セキュリティとユーザビリティのバランスをとる上での課題を浮き彫りにしている。

要約(オリジナル)

As large language models (LLMs) and generative AI become widely adopted, guardrails have emerged as a key tool to ensure their safe use. However, adding guardrails isn’t without tradeoffs; stronger security measures can reduce usability, while more flexible systems may leave gaps for adversarial attacks. In this work, we explore whether current guardrails effectively prevent misuse while maintaining practical utility. We introduce a framework to evaluate these tradeoffs, measuring how different guardrails balance risk, security, and usability, and build an efficient guardrail. Our findings confirm that there is no free lunch with guardrails; strengthening security often comes at the cost of usability. To address this, we propose a blueprint for designing better guardrails that minimize risk while maintaining usability. We evaluate various industry guardrails, including Azure Content Safety, Bedrock Guardrails, OpenAI’s Moderation API, Guardrails AI, Nemo Guardrails, and Enkrypt AI guardrails. Additionally, we assess how LLMs like GPT-4o, Gemini 2.0-Flash, Claude 3.5-Sonnet, and Mistral Large-Latest respond under different system prompts, including simple prompts, detailed prompts, and detailed prompts with chain-of-thought (CoT) reasoning. Our study provides a clear comparison of how different guardrails perform, highlighting the challenges in balancing security and usability.

arxiv情報

著者 Divyanshu Kumar,Nitin Aravind Birur,Tanay Baswa,Sahil Agarwal,Prashanth Harshangi
発行日 2025-04-03 13:34:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CR | No Free Lunch with Guardrails はコメントを受け付けていません

Reasoning Inconsistencies and How to Mitigate Them in Deep Learning

要約

近年のディープラーニングモデルと技術の進歩により、多様なタスクやモダリティにおけるパフォーマンスが飛躍的に向上している。しかし、モデルの全体的な能力は有望な成長を示しているものの、その内部推論プロセスに関する理解はまだ限られており、特に論理的または推論的欠陥の系統的な矛盾やエラーパターンに関する理解が不十分である。このような矛盾は、矛盾した出力、類似のタスク間での一般化の失敗、特定の文脈での誤った結論として現れることがある。このような推論の不一致を検出し測定することは、不透明な内部手順、トレーニングデータの偏りや不均衡、またはタスクの本質的な複雑性から生じる可能性があるため、困難である。これらのエラーを検出、測定、緩和する効果的な方法がなければ、偏った、悪用可能な、あるいは論理的に信頼できないモデルを展開する危険性がある。本論文は、知識グラフ、自然言語、画像を推論する深層学習モデルのための新しい手法を生み出すことにより、これらの問題に対処することを目的とする。本論文は、自然言語と画像処理モデルにおける不透明な内部手続きに由来する予測矛盾を検出し定量化するための2つの技術を提供する。また、学習データの偏りに起因する矛盾を緩和するために、公平性と性能を向上させるデータ効率的なサンプリング手法と、低リソースシナリオにおける合成データセット生成手法を提案する。最後に、本論文は複雑な推論タスクに対してモデルを最適化する2つの手法を提供する。これらの手法は、推論中により忠実で解釈可能な探索と利用を可能にしながら、モデルの性能を向上させる。本論文は、多様なタスクやモダリティにおける深層学習モデルの頑健性、公平性、解釈可能性を向上させるための包括的なフレームワークを提供する。

要約(オリジナル)

The recent advancements in Deep Learning models and techniques have led to significant strides in performance across diverse tasks and modalities. However, while the overall capabilities of models show promising growth, our understanding of their internal reasoning processes remains limited, particularly concerning systematic inconsistencies or errors patterns of logical or inferential flaws. These inconsistencies may manifest as contradictory outputs, failure to generalize across similar tasks, or erroneous conclusions in specific contexts. Even detecting and measuring such reasoning discrepancies is challenging, as they may arise from opaque internal procedures, biases and imbalances in training data, or the inherent complexity of the task. Without effective methods to detect, measure, and mitigate these errors, there is a risk of deploying models that are biased, exploitable, or logically unreliable. This thesis aims to address these issues by producing novel methods for deep learning models that reason over knowledge graphs, natural language, and images. The thesis contributes two techniques for detecting and quantifying predictive inconsistencies originating from opaque internal procedures in natural language and image processing models. To mitigate inconsistencies from biases in training data, this thesis presents a data efficient sampling method to improve fairness and performance and a synthetic dataset generation approach in low resource scenarios. Finally, the thesis offers two techniques to optimize the models for complex reasoning tasks. These methods enhance model performance while allowing for more faithful and interpretable exploration and exploitation during inference. Critically, this thesis provides a comprehensive framework to improve the robustness, fairness, and interpretability of deep learning models across diverse tasks and modalities.

arxiv情報

著者 Erik Arakelyan
発行日 2025-04-03 13:40:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG, cs.LO | Reasoning Inconsistencies and How to Mitigate Them in Deep Learning はコメントを受け付けていません

Towards Multi-agent Reinforcement Learning based Traffic Signal Control through Spatio-temporal Hypergraphs

要約

交通信号制御システム(TSCS)は、効率的な車両の流れを促進するインテリジェントな交通管理に不可欠である。従来のアプローチでは、道路ネットワークを標準的なグラフに単純化することが多く、その結果、近隣交差点における交通データの動的な性質を考慮することができず、リアルタイム制御に必要な高次の相互接続が無視されている。そこで我々は、インテリジェントな交通制御を実現するための新しいTSCSフレームワークを提案する。このフレームワークは、隣接する複数のエッジコンピューティングサーバと連携し、道路ネットワーク全体の交通情報を収集する。交通信号制御の効率を高めるために、我々はマルチエージェントソフトアクタークリティック(MA-SAC)強化学習アルゴリズムを構築した。このアルゴリズムでは、個々のエージェントは、道路ネットワーク全体の交通流を全体的に最適化することを使命として、各交差点に配置される。さらに、道路ネットワーク内の複数の交差点からの時空間的相互作用を可能にするために、MA-SACの批判者ネットワークにハイパーグラフ学習を導入する。この方法は、ハイパーグラフと時空間グラフ構造を融合し、交通データを符号化し、複数の交差点間の複雑な時空間相関を捉える。様々なデータセットでテストされた我々の経験的評価により、平均車両移動時間を最小化し、高スループット性能を維持する上で、我々のフレームワークが優れていることが実証された。この研究は、よりインテリジェントな都市交通管理ソリューションの開発を促進する。この研究の再現性をサポートするために、https://github.com/Edun-Eyes/TSC でコードを公開する。

要約(オリジナル)

Traffic signal control systems (TSCSs) are integral to intelligent traffic management, fostering efficient vehicle flow. Traditional approaches often simplify road networks into standard graphs, which results in a failure to consider the dynamic nature of traffic data at neighboring intersections, thereby neglecting higher-order interconnections necessary for real-time control. To address this, we propose a novel TSCS framework to realize intelligent traffic control. This framework collaborates with multiple neighboring edge computing servers to collect traffic information across the road network. To elevate the efficiency of traffic signal control, we have crafted a multi-agent soft actor-critic (MA-SAC) reinforcement learning algorithm. Within this algorithm, individual agents are deployed at each intersection with a mandate to optimize traffic flow across the road network collectively. Furthermore, we introduce hypergraph learning into the critic network of MA-SAC to enable the spatio-temporal interactions from multiple intersections in the road network. This method fuses hypergraph and spatio-temporal graph structures to encode traffic data and capture the complex spatio-temporal correlations between multiple intersections. Our empirical evaluation, tested on varied datasets, demonstrates the superiority of our framework in minimizing average vehicle travel times and sustaining high-throughput performance. This work facilitates the development of more intelligent urban traffic management solutions. We release the code to support the reproducibility of this work at https://github.com/Edun-Eyes/TSC

arxiv情報

著者 Kang Wang,Zhishu Shen,Zhen Lei,Tiehua Zhang
発行日 2025-04-03 13:50:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.MA | Towards Multi-agent Reinforcement Learning based Traffic Signal Control through Spatio-temporal Hypergraphs はコメントを受け付けていません

Deep learning for music generation. Four approaches and their comparative evaluation

要約

本稿では、音楽生成のための4つの異なる人工知能アルゴリズムを紹介し、生成された音楽の美的品質だけでなく、特定の用途への適合性に基づいてこれらの方法を比較することを目的とする。最初のメロディー・セットは、言語モデルとして使用される視覚変換ニューラルネットワークを少し修正したものによって生成される。2つ目のメロディーセットは、チャットソニフィケーションと古典的なトランスフォーマーニューラルネットワークを組み合わせて生成され(音楽生成の同じ方法は、以前の研究で発表されている)、3つ目のメロディーセットは、シリンジャーリズム理論と古典的なトランスフォーマーニューラルネットワークを組み合わせて生成され、4つ目のメロディーセットは、OpenAIによって提供されるGPT3トランスフォーマーを使用して生成される。これらのアプローチによって生成されたメロディーを比較分析した結果、それらの間には大きな違いが観察され、美的価値に関しては、GPT3が最も心地よいメロディーを生成し、新しく導入されたSchillinger法は、これまでの音波化手法よりも良い響きの音楽を生成することが証明された。

要約(オリジナル)

This paper introduces four different artificial intelligence algorithms for music generation and aims to compare these methods not only based on the aesthetic quality of the generated music but also on their suitability for specific applications. The first set of melodies is produced by a slightly modified visual transformer neural network that is used as a language model. The second set of melodies is generated by combining chat sonification with a classic transformer neural network (the same method of music generation is presented in a previous research), the third set of melodies is generated by combining the Schillinger rhythm theory together with a classic transformer neural network, and the fourth set of melodies is generated using GPT3 transformer provided by OpenAI. A comparative analysis is performed on the melodies generated by these approaches and the results indicate that significant differences can be observed between them and regarding the aesthetic value of them, GPT3 produced the most pleasing melodies, and the newly introduced Schillinger method proved to generate better sounding music than previous sonification methods.

arxiv情報

著者 Razvan Paroiu,Stefan Trausan-Matu
発行日 2025-04-03 13:51:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.SD, eess.AS | Deep learning for music generation. Four approaches and their comparative evaluation はコメントを受け付けていません

Knowledge Graph Completion with Mixed Geometry Tensor Factorization

要約

本論文では、低ランクテンソル近似による知識グラフ補完のための新しい幾何学的アプローチを提案する。我々は、タッカーテンソル分解に基づく、事前に学習された確立されたユークリッドモデルを、新しい双曲線相互作用項によって補強する。この補正により、実世界の知識グラフにより近いデータにおいて、より微妙な分布特性の捕捉が可能となる。2つの形状を組み合わせることで、我々のアプローチは、結果として得られるモデルの表現力を向上させ、従来のユークリッドモデルや双曲モデルと比較して、大幅に少ないパラメータ数で、最先端のリンク予測精度を達成した。

要約(オリジナル)

In this paper, we propose a new geometric approach for knowledge graph completion via low rank tensor approximation. We augment a pretrained and well-established Euclidean model based on a Tucker tensor decomposition with a novel hyperbolic interaction term. This correction enables more nuanced capturing of distributional properties in data better aligned with real-world knowledge graphs. By combining two geometries together, our approach improves expressivity of the resulting model achieving new state-of-the-art link prediction accuracy with a significantly lower number of parameters compared to the previous Euclidean and hyperbolic models.

arxiv情報

著者 Viacheslav Yusupov,Maxim Rakhuba,Evgeny Frolov
発行日 2025-04-03 13:54:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.IR, cs.LG, stat.ML | Knowledge Graph Completion with Mixed Geometry Tensor Factorization はコメントを受け付けていません

Iterated $Q$-Network: Beyond One-Step Bellman Updates in Deep Reinforcement Learning

要約

強化学習法の大部分は、作用値関数の効果的な推定を得るために必要な計算量とデータ量に大きく影響される。通常、行動価値関数は、ベルマン演算子の経験的近似の適用と、それに続く関数空間への射影ステップを交互に繰り返す反復スキームによって推定される。このスキームは、ベルマン作用素の複数の反復を一度に実行するように一般化できる可能性があり、基礎となる学習アルゴリズムに利益をもたらすことが観察されている。しかし、これまで、特に高次元問題において、このアイデアを効果的に実装することは困難であった。本論文では、反復$Q$-Network(i-QN)を紹介する。i-QNは、行動値関数を学習することで、複数回の連続したベルマン更新を可能にする新しい原理的アプローチである。i-QNは理論的根拠があり、価値ベースや行為者批評的手法にシームレスに利用できることを示す。アタリ$2600$ゲームとMuJoCo連続制御問題において、i-QNの優位性を実証的に示す。

要約(オリジナル)

The vast majority of Reinforcement Learning methods is largely impacted by the computation effort and data requirements needed to obtain effective estimates of action-value functions, which in turn determine the quality of the overall performance and the sample-efficiency of the learning procedure. Typically, action-value functions are estimated through an iterative scheme that alternates the application of an empirical approximation of the Bellman operator and a subsequent projection step onto a considered function space. It has been observed that this scheme can be potentially generalized to carry out multiple iterations of the Bellman operator at once, benefiting the underlying learning algorithm. However, till now, it has been challenging to effectively implement this idea, especially in high-dimensional problems. In this paper, we introduce iterated $Q$-Network (i-QN), a novel principled approach that enables multiple consecutive Bellman updates by learning a tailored sequence of action-value functions where each serves as the target for the next. We show that i-QN is theoretically grounded and that it can be seamlessly used in value-based and actor-critic methods. We empirically demonstrate the advantages of i-QN in Atari $2600$ games and MuJoCo continuous control problems.

arxiv情報

著者 Théo Vincent,Daniel Palenicek,Boris Belousov,Jan Peters,Carlo D’Eramo
発行日 2025-04-03 13:58:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Iterated $Q$-Network: Beyond One-Step Bellman Updates in Deep Reinforcement Learning はコメントを受け付けていません

Multi-SWE-bench: A Multilingual Benchmark for Issue Resolving

要約

問題解決のタスクは、コードベースを修正して、与えられた問題に対処するパッチを生成することである。しかし、SWE-benchのような既存のベンチマークは、ほぼPythonのみに焦点を当てており、多様なソフトウェアエコシステム全体で大規模言語モデル(LLM)を評価するには不十分である。これを解決するために、Java、TypeScript、JavaScript、Go、Rust、C、C++をカバーするMulti-SWE-benchと呼ばれる多言語課題解決ベンチマークを紹介します。Multi-SWE-benchには合計1,632個の高品質なインスタンスが含まれており、68人の専門家アノテーターによって2,456個の候補から慎重にアノテーションされ、ベンチマークが正確で信頼できる評価を提供できることを保証している。Multi-SWE-benchに基づき、3つの代表的な手法(Agentless、SWE-agent、OpenHands)を用いて一連の最先端モデルを評価し、主要な経験的洞察を含む包括的な分析を提示する。さらに、課題解決タスクのための大規模な強化学習(RL)トレーニングデータセットを構築することを目的とした、Multi-SWE-RLのオープンソースコミュニティを立ち上げました。最初の貢献として、7つのプログラミング言語にまたがる4,723の構造化されたインスタンスセットを公開し、この領域におけるRL研究のための強固な基盤を構築します。さらに重要なこととして、データ作成パイプライン全体を、詳細なチュートリアルとともにオープンソース化し、オープンソースコミュニティに継続的な貢献とデータセットの拡張を促している。我々は、我々のMulti-SWE-benchと成長し続けるMulti-SWE-RLコミュニティが、RLをその潜在能力を最大限に引き出すための触媒となり、AGIの夜明けに一歩近づくことを想定している。

要約(オリジナル)

The task of issue resolving is to modify a codebase to generate a patch that addresses a given issue. However, existing benchmarks, such as SWE-bench, focus almost exclusively on Python, making them insufficient for evaluating Large Language Models (LLMs) across diverse software ecosystems. To address this, we introduce a multilingual issue-resolving benchmark, called Multi-SWE-bench, covering Java, TypeScript, JavaScript, Go, Rust, C, and C++. It includes a total of 1,632 high-quality instances, which were carefully annotated from 2,456 candidates by 68 expert annotators, ensuring that the benchmark can provide an accurate and reliable evaluation. Based on Multi-SWE-bench, we evaluate a series of state-of-the-art models using three representative methods (Agentless, SWE-agent, and OpenHands) and present a comprehensive analysis with key empirical insights. In addition, we launch a Multi-SWE-RL open-source community, aimed at building large-scale reinforcement learning (RL) training datasets for issue-resolving tasks. As an initial contribution, we release a set of 4,723 well-structured instances spanning seven programming languages, laying a solid foundation for RL research in this domain. More importantly, we open-source our entire data production pipeline, along with detailed tutorials, encouraging the open-source community to continuously contribute and expand the dataset. We envision our Multi-SWE-bench and the ever-growing Multi-SWE-RL community as catalysts for advancing RL toward its full potential, bringing us one step closer to the dawn of AGI.

arxiv情報

著者 Daoguang Zan,Zhirong Huang,Wei Liu,Hanwu Chen,Linhao Zhang,Shulin Xin,Lu Chen,Qi Liu,Xiaojian Zhong,Aoyan Li,Siyao Liu,Yongsheng Xiao,Liangqiang Chen,Yuyu Zhang,Jing Su,Tianyu Liu,Rui Long,Kai Shen,Liang Xiang
発行日 2025-04-03 14:06:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.SE | Multi-SWE-bench: A Multilingual Benchmark for Issue Resolving はコメントを受け付けていません

Improving Counterfactual Truthfulness for Molecular Property Prediction through Uncertainty Quantification

要約

説明可能なAI(xAI)の介入は、複雑なブラックボックスモデルの解釈可能性を向上させることを目的としており、ユーザーの信頼を向上させるだけでなく、高性能な予測システムから科学的洞察を引き出す手段でもある。分子物性予測において、反事実的説明は、入力された分子構造における最小の摂動が、予測された物性における最大の偏差を引き起こすかを強調することによって、予測動作を理解する方法を提供する。しかし、このような説明は、真の物性の分布を反映している場合にのみ、意味のある科学的洞察を可能にする。この真実性を高めるために、予測された不確実性の高い反事実候補をフィルタリングする不確実性推定技術の統合を提案する。合成データセットと実世界データセットを用いた計算実験を通じて、アンサンブルや平均分散推定といった従来の不確実性推定手法が、特に分布外設定において、平均予測誤差を既に大幅に減少させ、反事実の真実性を高めることができることを実証する。我々の結果は、不確実性推定を説明可能性手法に取り入れることの重要性と潜在的な影響力を強調するものであり、特にモデルアンサンブルのような低労力介入の比較的高い有効性を考慮したものである。

要約(オリジナル)

Explainable AI (xAI) interventions aim to improve interpretability for complex black-box models, not only to improve user trust but also as a means to extract scientific insights from high-performing predictive systems. In molecular property prediction, counterfactual explanations offer a way to understand predictive behavior by highlighting which minimal perturbations in the input molecular structure cause the greatest deviation in the predicted property. However, such explanations only allow for meaningful scientific insights if they reflect the distribution of the true underlying property — a feature we define as counterfactual truthfulness. To increase this truthfulness, we propose the integration of uncertainty estimation techniques to filter counterfactual candidates with high predicted uncertainty. Through computational experiments with synthetic and real-world datasets, we demonstrate that traditional uncertainty estimation methods, such as ensembles and mean-variance estimation, can already substantially reduce the average prediction error and increase counterfactual truthfulness, especially for out-of-distribution settings. Our results highlight the importance and potential impact of incorporating uncertainty estimation into explainability methods, especially considering the relatively high effectiveness of low-effort interventions like model ensembles.

arxiv情報

著者 Jonas Teufel,Annika Leinweber,Pascal Friederich
発行日 2025-04-03 14:07:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Improving Counterfactual Truthfulness for Molecular Property Prediction through Uncertainty Quantification はコメントを受け付けていません

Learning Geometrically-Informed Lyapunov Functions with Deep Diffeomorphic RBF Networks

要約

学習ベースの自律システムの実用化には、データから証明関数の形で安全保証を柔軟に得るツールが大いに役立つだろう。このような証明関数の幾何学的特性はよく理解されているが、機械学習技術を用いてそれを合成することは依然として課題である。この問題を軽減するために、我々は差分同型関数学習フレームワークを提案する。このフレームワークでは、所望の出力に関する事前の構造的知識が、単純な代理関数の幾何学的性質に符号化され、その後に、表現力豊かでトポロジー保存可能な状態空間変換によって、この代理関数が拡張される。これにより、所望の仮説空間に留まることが保証された間接関数近似の枠組みを実現する。この目的のために、RBFネットワークに基づく差分同型マップを構築する新しいアプローチを導入し、データ周りの正確で局所的な変換を容易にする。最後に、実世界のデータから差分同型リアプノフ関数を学習し、我々の手法を様々なアトラクターシステムに適用することで、我々のアプローチを実証する。

要約(オリジナル)

The practical deployment of learning-based autonomous systems would greatly benefit from tools that flexibly obtain safety guarantees in the form of certificate functions from data. While the geometrical properties of such certificate functions are well understood, synthesizing them using machine learning techniques still remains a challenge. To mitigate this issue, we propose a diffeomorphic function learning framework where prior structural knowledge of the desired output is encoded in the geometry of a simple surrogate function, which is subsequently augmented through an expressive, topology-preserving state-space transformation. Thereby, we achieve an indirect function approximation framework that is guaranteed to remain in the desired hypothesis space. To this end, we introduce a novel approach to construct diffeomorphic maps based on RBF networks, which facilitate precise, local transformations around data. Finally, we demonstrate our approach by learning diffeomorphic Lyapunov functions from real-world data and apply our method to different attractor systems.

arxiv情報

著者 Samuel Tesfazgi,Leonhard Sprandl,Sandra Hirche
発行日 2025-04-03 14:09:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY | Learning Geometrically-Informed Lyapunov Functions with Deep Diffeomorphic RBF Networks はコメントを受け付けていません