A Lyapunov-Based Switching Scheme for Selecting the Stable Closed-Loop Fixed Attitude-Error Quaternion During Flight

要約

飛行中の無人航空機 (UAV) の回転自由度を制御するために、姿勢誤差四元数 (AEQ) と角速度誤差の両方を使用するスイッチング スキームを提案します。
このアプローチでは、提案されたコントローラーは、2 つのエネルギーベースのリアプノフ関数で計算されたコスト間の最小コストに対応する安定した閉ループ (CL) 平衡 AEQ を継続的に選択します。
CL スイッチング ダイナミクスの安定性を解析して強化するために、基本的な非線形理論を使用します。
安定した CL 平衡 AEQ の選択が飛行中の制御される UAV の出力とエネルギー要件を直接決定するため、この研究問題は関連性があります。
提案されたアプローチの実装、適合性、機能性、およびパフォーマンスをテストおよび実証するために、飛行中に高速ヨー操縦を実行するように制御された 31 グラムのクアッドローターを使用して得られた実験結果を示します。
これらの飛行テストは、提案されたスイッチング コントローラーが、よく使用されるベンチマーク コントローラーに対応するコントローラーと比較して、制御労力と回転力をそれぞれ平均 49.75 % と 28.14 % も削減できることを示しています。

要約(オリジナル)

We present a switching scheme, which uses both the attitude-error quaternion (AEQ) and the angular-velocity error, for controlling the rotational degrees of freedom of an uncrewed aerial vehicle (UAV) during flight. In this approach, the proposed controller continually selects the stable closed-loop (CL) equilibrium AEQ corresponding to the smallest cost between those computed with two energy-based Lyapunov functions. To analyze and enforce the stability of the CL switching dynamics, we use basic nonlinear theory. This research problem is relevant because the selection of the stable CL equilibrium AEQ directly determines the power and energy requirements of the controlled UAV during flight. To test and demonstrate the implementation, suitability, functionality, and performance of the proposed approach, we present experimental results obtained using a 31-gram quadrotor, which was controlled to execute high-speed yaw maneuvers in flight. These flight tests show that the proposed switching controller can respectively reduce the control effort and rotational power by as much as 49.75 % and 28.14 %, on average, compared to those corresponding to an often-used benchmark controller.

arxiv情報

著者 Francisco M. F. R. Goncalves,Ryan M. Bena,Konstantin I. Matveev,Nestor O. Perez-Arancibia
発行日 2024-10-21 16:12:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | A Lyapunov-Based Switching Scheme for Selecting the Stable Closed-Loop Fixed Attitude-Error Quaternion During Flight はコメントを受け付けていません

Data Efficient Behavior Cloning for Fine Manipulation via Continuity-based Corrective Labels

要約

私たちは、専門家のデモンストレーションのみにアクセスして模倣学習を検討しますが、その現実世界への応用は、実行中の複合誤差による共変量シフトによって制限されることがよくあります。
私たちは、現実世界の微細操作タスクにおけるこの問題を軽減するための、模倣学習のための連続性ベースの修正ラベル (CCIL) フレームワークの有効性を調査します。
CCIL は、デモンストレーションから局所連続ダイナミクス モデルを学習することで修正ラベルを生成し、エージェントをエキスパート状態に戻すように導きます。
ペグの挿入と細かい把握に関する広範な実験を通じて、接触が多い操作に不連続性が存在するにもかかわらず、CCIL が模倣学習のパフォーマンスを大幅に向上させることができるという最初の経験的検証を提供します。
その結果、(1) 現実世界の操作は CCIL を適用するのに十分な局所的な滑らかさを示し、(2) 生成された修正ラベルは低データ領域で最も有益であり、(3) 推定されたダイナミクス モデル誤差に基づくラベル フィルタリングによりパフォーマンスが向上することがわかりました。
CCIL をロボット ドメインに効果的に適用するために、フレームワークの実用的なインスタンス化と、設計の選択とハイパーパラメーターの選択に関する洞察を提供します。
私たちの研究は、物理的なロボットでの模倣学習における複合エラーを軽減するための CCIL の実用性を実証しています。

要約(オリジナル)

We consider imitation learning with access only to expert demonstrations, whose real-world application is often limited by covariate shift due to compounding errors during execution. We investigate the effectiveness of the Continuity-based Corrective Labels for Imitation Learning (CCIL) framework in mitigating this issue for real-world fine manipulation tasks. CCIL generates corrective labels by learning a locally continuous dynamics model from demonstrations to guide the agent back toward expert states. Through extensive experiments on peg insertion and fine grasping, we provide the first empirical validation that CCIL can significantly improve imitation learning performance despite discontinuities present in contact-rich manipulation. We find that: (1) real-world manipulation exhibits sufficient local smoothness to apply CCIL, (2) generated corrective labels are most beneficial in low-data regimes, and (3) label filtering based on estimated dynamics model error enables performance gains. To effectively apply CCIL to robotic domains, we offer a practical instantiation of the framework and insights into design choices and hyperparameter selection. Our work demonstrates CCIL’s practicality for alleviating compounding errors in imitation learning on physical robots.

arxiv情報

著者 Abhay Deshpande,Liyiming Ke,Quinn Pfeifer,Abhishek Gupta,Siddhartha S. Srinivasa
発行日 2024-10-21 16:44:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Data Efficient Behavior Cloning for Fine Manipulation via Continuity-based Corrective Labels はコメントを受け付けていません

LASER: Script Execution by Autonomous Agents for On-demand Traffic Simulation

要約

自動運転システム (ADS) では、効果的なトレーニングとテストのために安全性が重要な多様な交通シナリオが必要ですが、既存のデータ生成方法では柔軟性と拡張性を提供するのが困難です。
私たちは、大規模言語モデル (LLM) を利用して自然言語入力に基づいて交通シミュレーションを実行する新しいフレームワークである LASER を提案します。
このフレームワークは 2 つの段階で動作します。最初にユーザーが提供した記述からスクリプトを生成し、次に自律エージェントを使用してリアルタイムでスクリプトを実行します。
CARLA シミュレーターで検証された LASER は、複雑なオンデマンド運転シナリオの生成に成功し、ADS トレーニングとテスト データ生成を大幅に改善しました。

要約(オリジナル)

Autonomous Driving Systems (ADS) require diverse and safety-critical traffic scenarios for effective training and testing, but the existing data generation methods struggle to provide flexibility and scalability. We propose LASER, a novel frame-work that leverage large language models (LLMs) to conduct traffic simulations based on natural language inputs. The framework operates in two stages: it first generates scripts from user-provided descriptions and then executes them using autonomous agents in real time. Validated in the CARLA simulator, LASER successfully generates complex, on-demand driving scenarios, significantly improving ADS training and testing data generation.

arxiv情報

著者 Hao Gao,Jingyue Wang,Wenyang Fang,Jingwei Xu,Yunpeng Huang,Taolue Chen,Xiaoxing Ma
発行日 2024-10-21 17:00:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO | LASER: Script Execution by Autonomous Agents for On-demand Traffic Simulation はコメントを受け付けていません

ExDBN: Exact learning of Dynamic Bayesian Networks

要約

データからの因果学習は近年大きな注目を集めています。
因果関係を捉える方法の 1 つは、ベイジアン ネットワークを利用することです。
そこでは、確率変数が頂点によって表され、各エッジに関連付けられた重みがそれらの間の因果関係の強さを表す、重み付き有向非巡回グラフが復元されます。
この概念は、構造方程式モデルによって捕捉できる過去のデータへの依存性を導入することで動的効果を捕捉するように拡張されており、このモデルはスコアベースの学習アプローチを定式化するために今回の貢献で利用されています。
混合整数二次プログラムが定式化され、アルゴリズムによる解決策が提案されます。この解決策では、いわゆるブランチ アンド カット (「遅延制約」) 方法を利用することで、指数関数的に多くの非循環性制約の事前生成が回避されます。
新しいアプローチと最先端のアプローチを比較すると、提案されたアプローチが最大 25 の時系列の中小規模の合成インスタンスに適用された場合に優れた結果が得られることがわかります。
最後に、この方法が直接適用されるバイオサイエンスと金融における 2 つの興味深いアプリケーションは、小規模なインスタンスを処理できる高精度でグローバルに収束するソルバーを開発する機会をさらに強調します。

要約(オリジナル)

Causal learning from data has received much attention in recent years. One way of capturing causal relationships is by utilizing Bayesian networks. There, one recovers a weighted directed acyclic graph, in which random variables are represented by vertices, and the weights associated with each edge represent the strengths of the causal relationships between them. This concept is extended to capture dynamic effects by introducing a dependency on past data, which may be captured by the structural equation model, which is utilized in the present contribution to formulate a score-based learning approach. A mixed-integer quadratic program is formulated and an algorithmic solution proposed, in which the pre-generation of exponentially many acyclicity constraints is avoided by utilizing the so-called branch-and-cut (‘lazy constraint’) method. Comparing the novel approach to the state of the art, we show that the proposed approach turns out to produce excellent results when applied to small and medium-sized synthetic instances of up to 25 time-series. Lastly, two interesting applications in bio-science and finance, to which the method is directly applied, further stress the opportunities in developing highly accurate, globally convergent solvers that can handle modest instances.

arxiv情報

著者 Pavel Rytíř,Aleš Wodecki,Georgios Korpas,Jakub Mareček
発行日 2024-10-21 15:27:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | ExDBN: Exact learning of Dynamic Bayesian Networks はコメントを受け付けていません

LDAdam: Adaptive Optimization from Low-Dimensional Gradient Statistics

要約

大規模モデルをトレーニングするためのメモリ効率の高いオプティマイザーである LDAdam を紹介します。これは、トレーニング中に完全なパラメーター空間を一貫して探索しながら、低次元の部分空間内で適応最適化ステップを実行します。
この戦略により、オプティマイザーのメモリ フットプリントがモデル サイズの一部に抑えられます。
LDAdam は、部分空間間の遷移、つまり投影された勾配の統計の推定を可能にするオプティマイザー状態の新しい投影認識更新ルールに依存しています。
低ランクの射影によるエラーを軽減するために、LDAdam には、勾配とオプティマイザーの状態圧縮の両方を明示的に考慮する、新しい一般化されたエラー フィードバック メカニズムが統合されています。
標準的な仮定の下で LDAdam の収束を証明し、LDAdam が言語モデルの正確かつ効率的な微調整と事前トレーニングを可能にすることを示します。

要約(オリジナル)

We introduce LDAdam, a memory-efficient optimizer for training large models, that performs adaptive optimization steps within lower dimensional subspaces, while consistently exploring the full parameter space during training. This strategy keeps the optimizer’s memory footprint to a fraction of the model size. LDAdam relies on a new projection-aware update rule for the optimizer states that allows for transitioning between subspaces, i.e., estimation of the statistics of the projected gradients. To mitigate the errors due to low-rank projection, LDAdam integrates a new generalized error feedback mechanism, which explicitly accounts for both gradient and optimizer state compression. We prove the convergence of LDAdam under standard assumptions, and show that LDAdam allows for accurate and efficient fine-tuning and pre-training of language models.

arxiv情報

著者 Thomas Robert,Mher Safaryan,Ionut-Vlad Modoranu,Dan Alistarh
発行日 2024-10-21 15:31:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML | LDAdam: Adaptive Optimization from Low-Dimensional Gradient Statistics はコメントを受け付けていません

Statistical Inference for Temporal Difference Learning with Linear Function Approximation

要約

マルコフ決定プロセス (MDP) における特定のポリシーの価値関数に対する有限サンプル妥当性を備えた統計的推論は、強化学習の信頼性を確保するために重要です。
おそらく政策評価に最も広く使用されているアルゴリズムである時間差分 (TD) 学習は、この目的のための自然なフレームワークとして機能します。この論文では、Polyak-Ruppert 平均化と線形関数近似による TD 学習の一貫性特性を研究し、次の結果を取得します。
既存の結果に比べて 3 つの大幅な改善が見られます。
まず、漸近分散に明示的に依存し、弱い条件下でも成立する、新しいシャープな高次元確率収束保証を導出します。
さらに、文献に記載されているものよりも高速なレートを保証する、凸集合のクラスにわたる洗練された高次元ベリー・エッセン境界を確立します。
最後に、効率的なオンライン計算のために設計された、漸近共分散行列のプラグイン推定器を提案します。
これらの結果により、有限サンプル範囲が保証された、値関数の線形パラメーターの信頼領域と同時信頼区間の構築が可能になります。
数値実験を通じて理論的発見の適用可能性を実証します。

要約(オリジナル)

Statistical inference with finite-sample validity for the value function of a given policy in Markov decision processes (MDPs) is crucial for ensuring the reliability of reinforcement learning. Temporal Difference (TD) learning, arguably the most widely used algorithm for policy evaluation, serves as a natural framework for this purpose.In this paper, we study the consistency properties of TD learning with Polyak-Ruppert averaging and linear function approximation, and obtain three significant improvements over existing results. First, we derive a novel sharp high-dimensional probability convergence guarantee that depends explicitly on the asymptotic variance and holds under weak conditions. We further establish refined high-dimensional Berry-Esseen bounds over the class of convex sets that guarantee faster rates than those in the literature. Finally, we propose a plug-in estimator for the asymptotic covariance matrix, designed for efficient online computation. These results enable the construction of confidence regions and simultaneous confidence intervals for the linear parameters of the value function, with guaranteed finite-sample coverage. We demonstrate the applicability of our theoretical findings through numerical experiments.

arxiv情報

著者 Weichen Wu,Gen Li,Yuting Wei,Alessandro Rinaldo
発行日 2024-10-21 15:34:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Statistical Inference for Temporal Difference Learning with Linear Function Approximation はコメントを受け付けていません

AROMA: Preserving Spatial Structure for Latent PDE Modeling with Local Neural Fields

要約

我々は、局所神経場を使用して偏微分方程式 (PDE) のモデリングを強化するために設計されたフレームワークである AROMA (Attentive Reduced Order Model with Attendee) を紹介します。
当社の柔軟なエンコーダ/デコーダ アーキテクチャは、不規則なグリッド入力や点群などのさまざまなデータ タイプから空間物理フィールドの滑らかな潜在表現を取得できます。
この多用途性により、パッチの必要性がなくなり、多様な形状を効率的に処理できるようになります。
潜在表現の逐次的性質は空間的に解釈でき、PDE の時間的ダイナミクスをモデル化するための条件付き変換器の使用が可能になります。
拡散ベースの配合を採用することで、従来の MSE トレーニングと比較して安定性が向上し、長期間のロールアウトが可能になります。
1D および 2D 方程式のシミュレーションにおける AROMA の優れたパフォーマンスは、複雑な動的挙動の捕捉における私たちのアプローチの有効性を強調しています。

要約(オリジナル)

We present AROMA (Attentive Reduced Order Model with Attention), a framework designed to enhance the modeling of partial differential equations (PDEs) using local neural fields. Our flexible encoder-decoder architecture can obtain smooth latent representations of spatial physical fields from a variety of data types, including irregular-grid inputs and point clouds. This versatility eliminates the need for patching and allows efficient processing of diverse geometries. The sequential nature of our latent representation can be interpreted spatially and permits the use of a conditional transformer for modeling the temporal dynamics of PDEs. By employing a diffusion-based formulation, we achieve greater stability and enable longer rollouts compared to conventional MSE training. AROMA’s superior performance in simulating 1D and 2D equations underscores the efficacy of our approach in capturing complex dynamical behaviors.

arxiv情報

著者 Louis Serrano,Thomas X Wang,Etienne Le Naour,Jean-Noël Vittaut,Patrick Gallinari
発行日 2024-10-21 15:37:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | AROMA: Preserving Spatial Structure for Latent PDE Modeling with Local Neural Fields はコメントを受け付けていません

Extracting Spatiotemporal Data from Gradients with Large Language Models

要約

最近の研究では、ユーザーの機密データが勾配更新から再構築され、フェデレーテッド ラーニングの重要なプライバシーの約束が破られる可能性があることが示されています。
成功は主に画像データで実証されましたが、これらの方法は時空間データなどの他の領域に直接転送されません。
時空間連合学習におけるプライバシー リスクを理解するために、まず、時空間勾配反転攻撃 (ST-GIA) を提案します。これは、勾配から元の位置を首尾よく再構築する、時空間データに合わせた勾配攻撃アルゴリズムです。
さらに、時空間データに対する攻撃には事前分布が存在しないため、実際のクライアント データの正確な再構築が妨げられています。
この制限に対処するために、補助言語モデルを利用して潜在的な場所の検索をガイドし、それによって勾配から元のデータを首尾よく再構築する ST-GIA+ を提案します。
さらに、時空間連合学習における勾配反転攻撃を軽減するための適応防御戦略を設計します。
摂動レベルを動的に調整することで、さまざまなラウンドのトレーニング データに合わせた保護を提供できるため、現在の最先端の方法よりもプライバシーと実用性の間で優れたトレードオフを実現できます。
3 つの現実世界のデータセットに対する集中的な実験分析を通じて、提案された防御戦略が効果的なセキュリティ保護を備えた時空間連合学習の有用性を十分に維持できることを明らかにしました。

要約(オリジナル)

Recent works show that sensitive user data can be reconstructed from gradient updates, breaking the key privacy promise of federated learning. While success was demonstrated primarily on image data, these methods do not directly transfer to other domains, such as spatiotemporal data. To understand privacy risks in spatiotemporal federated learning, we first propose Spatiotemporal Gradient Inversion Attack (ST-GIA), a gradient attack algorithm tailored to spatiotemporal data that successfully reconstructs the original location from gradients. Furthermore, the absence of priors in attacks on spatiotemporal data has hindered the accurate reconstruction of real client data. To address this limitation, we propose ST-GIA+, which utilizes an auxiliary language model to guide the search for potential locations, thereby successfully reconstructing the original data from gradients. In addition, we design an adaptive defense strategy to mitigate gradient inversion attacks in spatiotemporal federated learning. By dynamically adjusting the perturbation levels, we can offer tailored protection for varying rounds of training data, thereby achieving a better trade-off between privacy and utility than current state-of-the-art methods. Through intensive experimental analysis on three real-world datasets, we reveal that the proposed defense strategy can well preserve the utility of spatiotemporal federated learning with effective security protection.

arxiv情報

著者 Lele Zheng,Yang Cao,Renhe Jiang,Kenjiro Taura,Yulong Shen,Sheng Li,Masatoshi Yoshikawa
発行日 2024-10-21 15:48:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG | Extracting Spatiotemporal Data from Gradients with Large Language Models はコメントを受け付けていません

Integer linear programming for unsupervised training set selection in molecular machine learning

要約

整数線形計画法 (ILP) は、線形最適化問題を解決する洗練されたアプローチであり、当然整数決定変数を使用して記述されます。
物理学にヒントを得た機械学習を化学に適用するという文脈の中で、サイズに及ぶ特性を予測するための分子トレーニング セットを選択するための ILP 定式化の関連性を実証します。
特にトレーニング セットに存在するものより大きな分子の特性を予測する場合、私たちのアルゴリズムが既存の教師なしトレーニング セット選択アプローチよりも優れたパフォーマンスを発揮することを示します。
パフォーマンスが向上した理由は、局所的な類似性 (つまり、原子ごと) の概念に基づいた選択と、最適なソリューションを効率的に見つける独自の ILP アプローチによるものであると私たちは主張します。
全体として、この研究は、物理学にインスピレーションを得た機械学習モデルのパフォーマンスを向上させる実用的なアルゴリズムを提供し、既存のトレーニング セット選択アプローチとの概念的な違いについての洞察を提供します。

要約(オリジナル)

Integer linear programming (ILP) is an elegant approach to solve linear optimization problems, naturally described using integer decision variables. Within the context of physics-inspired machine learning applied to chemistry, we demonstrate the relevance of an ILP formulation to select molecular training sets for predictions of size-extensive properties. We show that our algorithm outperforms existing unsupervised training set selection approaches, especially when predicting properties of molecules larger than those present in the training set. We argue that the reason for the improved performance is due to the selection that is based on the notion of local similarity (i.e., per-atom) and a unique ILP approach that finds optimal solutions efficiently. Altogether, this work provides a practical algorithm to improve the performance of physics-inspired machine learning models and offers insights into the conceptual differences with existing training set selection approaches.

arxiv情報

著者 Matthieu Haeberle,Puck van Gerwen,Ruben Laplaza,Ksenia R. Briling,Jan Weinreich,Friedrich Eisenbrand,Clemence Corminboeuf
発行日 2024-10-21 15:50:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.chem-ph | Integer linear programming for unsupervised training set selection in molecular machine learning はコメントを受け付けていません

MNIST-Nd: a set of naturalistic datasets to benchmark clustering across dimensions

要約

記録技術の進歩により、多くの科学分野にわたって大規模な高次元データセットが出現しました。
特に生物学では、クラスタリングは、さまざまな種類の細胞の構成を理解するなど、そのようなデータセットの構造についての洞察を得るためによく使用されます。
ただし、現在のベンチマーク データセットはほとんど 2 次元であるため、次元の正確な影響は不明ですが、クラスタリングは高次元まではうまくスケーリングできないことが知られています。
ここでは、実世界のデータセットの重要な特性、つまり個々のサンプルにノイズが多く、クラスターが完全に分離していないという特性を共有する合成データセットのセットである MNIST-Nd を提案します。
MNIST-Nd は、MNIST 上で 2 ~ 64 の潜在次元を持つ混合変分オートエンコーダーをトレーニングすることによって取得され、その結果、同等の構造を持つが次元が異なる 6 つのデータセットが得られます。
したがって、クラスタリングに対する次元の影響を解きほぐす機会が得られます。
MNIST-Nd の予備的な共通クラスタリング アルゴリズム ベンチマークでは、ライデンが次元の拡大に対して最も堅牢であることが示唆されています。

要約(オリジナル)

Driven by advances in recording technology, large-scale high-dimensional datasets have emerged across many scientific disciplines. Especially in biology, clustering is often used to gain insights into the structure of such datasets, for instance to understand the organization of different cell types. However, clustering is known to scale poorly to high dimensions, even though the exact impact of dimensionality is unclear as current benchmark datasets are mostly two-dimensional. Here we propose MNIST-Nd, a set of synthetic datasets that share a key property of real-world datasets, namely that individual samples are noisy and clusters do not perfectly separate. MNIST-Nd is obtained by training mixture variational autoencoders with 2 to 64 latent dimensions on MNIST, resulting in six datasets with comparable structure but varying dimensionality. It thus offers the chance to disentangle the impact of dimensionality on clustering. Preliminary common clustering algorithm benchmarks on MNIST-Nd suggest that Leiden is the most robust for growing dimensions.

arxiv情報

著者 Polina Turishcheva,Laura Hansel,Martin Ritzert,Marissa A. Weis,Alexander S. Ecker
発行日 2024-10-21 15:51:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | MNIST-Nd: a set of naturalistic datasets to benchmark clustering across dimensions はコメントを受け付けていません