HACTS: a Human-As-Copilot Teleoperation System for Robot Learning

要約

遠隔術は、特に人間のデモまたは修正を必要とする操作タスクにおいて、自律的なロボット学習に不可欠です。
ただし、ほとんどの既存のシステムは、一方的なロボット制御のみを提供し、ロボットのステータスをテレオ操作ハードウェアと同期させる能力が不足しているため、リアルタイムで柔軟な介入を防ぎます。
この作業では、ロボットアームとテレオ操作ハードウェア間の両側のリアルタイムのジョイント同期を確立する新しいシステムであるHacts(Human-as Copilot Teleoperation System)を紹介します。
自動運転車のハンドルに似たこのシンプルで効果的なフィードバックメカニズムにより、将来の学習のためにアクション修正データを収集しながら、人間の副操縦士がシームレスに介入することができます。
3Dプリントされたコンポーネントと低コストの既製のモーターを使用して実装されたHACTSは、アクセス可能でスケーラブルです。
私たちの実験は、HACTが模倣学習(IL)および強化学習(RL)タスクのパフォーマンスを大幅に向上させ、ILの回復能力とデータ効率を高め、ループ内のRLを促進することを示しています。
Hactsは、より効果的でインタラクティブな人間のロボットコラボレーションとデータ収集の道を開き、ロボット操作の機能を進めます。

要約(オリジナル)

Teleoperation is essential for autonomous robot learning, especially in manipulation tasks that require human demonstrations or corrections. However, most existing systems only offer unilateral robot control and lack the ability to synchronize the robot’s status with the teleoperation hardware, preventing real-time, flexible intervention. In this work, we introduce HACTS (Human-As-Copilot Teleoperation System), a novel system that establishes bilateral, real-time joint synchronization between a robot arm and teleoperation hardware. This simple yet effective feedback mechanism, akin to a steering wheel in autonomous vehicles, enables the human copilot to intervene seamlessly while collecting action-correction data for future learning. Implemented using 3D-printed components and low-cost, off-the-shelf motors, HACTS is both accessible and scalable. Our experiments show that HACTS significantly enhances performance in imitation learning (IL) and reinforcement learning (RL) tasks, boosting IL recovery capabilities and data efficiency, and facilitating human-in-the-loop RL. HACTS paves the way for more effective and interactive human-robot collaboration and data-collection, advancing the capabilities of robot manipulation.

arxiv情報

著者 Zhiyuan Xu,Yinuo Zhao,Kun Wu,Ning Liu,Junjie Ji,Zhengping Che,Chi Harold Liu,Jian Tang
発行日 2025-03-31 13:28:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | HACTS: a Human-As-Copilot Teleoperation System for Robot Learning はコメントを受け付けていません

CALMM-Drive: Confidence-Aware Autonomous Driving with Large Multimodal Model

要約

意思決定とモーション計画は、自律車両(AV)の安全性と効率を確保するための重要なコンポーネントを構成します。
既存の方法論は通常、2つのパラダイムを採用します:決定、計画または生成、スコアリング。
ただし、以前のアーキテクチャは、危険な状況を引き起こす意思決定計画の不整合に苦しむことがよくあります。
一方、後者は短期的な運用指標(例えば、即時の動きの滑らかさ)と長期的な戦術目標(例:ルート効率)のバランスをとるのに苦労し、近視または過度に保守的な行動をもたらします。
これらの問題に対処するために、Calmm-driveを紹介します。Calmm-Driveは、自信を持っている大規模なマルチモーダルモデル(LMM)に力を与えられた自律運転フレームワークを紹介します。
私たちのアプローチは、タスク指向のチェーンオブチェーン(COT)の推論を統合し、Top-Kの信頼の誘発と相まって、高レベルの推論を促進し、信頼レベルで複数の候補者の決定を生成します。
さらに、軌道生成の拡散モデルと階層改良プロセスを統合して、最適な軌道を見つける新しい計画モジュールを提案します。
このフレームワークにより、低レベルのソリューション品質と高レベルの戦術的信頼の両方を考慮した軌跡候補に対する選択が可能になり、1ショットの決定内のリスクを回避し、近視のスコアリングメカニズムの制限を克服します。
Nuplanクローズドループシミュレーション環境での包括的な評価は、一般的なベンチマークと長期尾の両方のベンチマークにわたるCalmm-driveの競争力を示しており、LMMエンパワーされたAVSの不確実性の統合に大きな進歩を示しています。
コードは受け入れられるとリリースされます。

要約(オリジナル)

Decision-making and motion planning constitute critical components for ensuring the safety and efficiency of autonomous vehicles (AVs). Existing methodologies typically adopt two paradigms: decision then planning or generation then scoring. However, the former architecture often suffers from decision-planning misalignment that incurs risky situations. Meanwhile, the latter struggles to balance short-term operational metrics (e.g., immediate motion smoothness) with long-term tactical goals (e.g., route efficiency), resulting in myopic or overly conservative behaviors. To address these issues, we introduce CALMM-Drive, a novel Confidence-Aware Large Multimodal Model (LMM) empowered Autonomous Driving framework. Our approach integrates driving task-oriented Chain-of-Thought (CoT) reasoning coupled with Top-K confidence elicitation, which facilitates high-level reasoning to generate multiple candidate decisions with their confidence levels. Furthermore, we propose a novel planning module that integrates a diffusion model for trajectory generation and a hierarchical refinement process to find the optimal trajectory. This framework enables the selection over trajectory candidates accounting for both low-level solution quality and high-level tactical confidence, which avoids the risks within one-shot decisions and overcomes the limitations in short-sighted scoring mechanisms. Comprehensive evaluations in nuPlan closed-loop simulation environments demonstrate the competitive performance of CALMM-Drive across both common and long-tail benchmarks, showcasing a significant advancement in the integration of uncertainty in LMM-empowered AVs. The code will be released upon acceptance.

arxiv情報

著者 Ruoyu Yao,Yubin Wang,Haichao Liu,Rui Yang,Zengqi Peng,Lei Zhu,Jun Ma
発行日 2025-03-31 13:47:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | CALMM-Drive: Confidence-Aware Autonomous Driving with Large Multimodal Model はコメントを受け付けていません

Pseudo-Random UAV Test Generation Using Low-Fidelity Path Simulator

要約

シミュレーションベースのテストは、非難されていない航空車両(UAV)の安全性を検証するための安全で費用対効果の高い環境を提供します。
ただし、特に高忠実度のシミュレータ(HF)が使用される場合は、シミュレーションがリソースを消費する場合があります。
シミュレーションリソースを最適化するために、低忠実度シミュレーター(LFS)を使用してUAVフライトパスを推定する擬似ランダムテストジェネレーターを提案します。
この作業は、PX4オートパイロットHFSを簡素化してLFSを開発します。LFSは、LFSの安全違反を引き起こすと予測されるHFS.テストのケースが、その後HFSを使用して検証されます。

要約(オリジナル)

Simulation-based testing provides a safe and cost-effective environment for verifying the safety of Uncrewed Aerial Vehicles (UAVs). However, simulation can be resource-consuming, especially when High-Fidelity Simulators (HFS) are used. To optimise simulation resources, we propose a pseudo-random test generator that uses a Low-Fidelity Simulator (LFS) to estimate UAV flight paths. This work simplifies the PX4 autopilot HFS to develop a LFS, which operates one order of magnitude faster than the HFS.Test cases predicted to cause safety violations in the LFS are subsequently validated using the HFS.

arxiv情報

著者 Anas Shrinah,Kerstin Eder
発行日 2025-03-31 14:50:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Pseudo-Random UAV Test Generation Using Low-Fidelity Path Simulator はコメントを受け付けていません

Robust Nonprehensile Object Transportation with Uncertain Inertial Parameters

要約

輸送されたオブジェクトが不確実な慣性パラメーターを持っている場合、ウェイターの問題として知られている非摂取オブジェクト輸送タスク(ロボットがトレイのオブジェクトをある場所から別の場所に移動する必要がある)を検討します。
慣性マトリックスの不確実性を完全に無視したり、小さなパラメーターエラーのみを考慮したりする既存のアプローチとは対照的に、処理できる慣性パラメーターの不確実性の量の限界をプッシュすることに関心があります。
まず、慣性パラメーターの不確実性に堅牢な制約を、最適化ベースのモーション計画フレームワークに組み込んで、オブジェクトを迅速に移動しながらどのように組み込むことができるかを示します。
次に、モーメントリラクゼーションに基づいて境界形状で慣性パラメーターを実現できるように必要な条件を開発し、軌道が実現可能な慣性パラメーターの制約に違反するかどうかを確認できます。
最後に、シミュレーションと実際のハードウェア実験におけるモバイルマニピュレーターでのアプローチを実証します。提案された堅牢な制約は、現実世界で実質的な慣性パラメーターの不確実性を備えた高さ56 cmのオブジェクトを一貫して正常に輸送しますが、ベースラインが輸送中にオブジェクトをドロップします。

要約(オリジナル)

We consider the nonprehensile object transportation task known as the waiter’s problem – in which a robot must move an object on a tray from one location to another – when the transported object has uncertain inertial parameters. In contrast to existing approaches that completely ignore uncertainty in the inertia matrix or which only consider small parameter errors, we are interested in pushing the limits of the amount of inertial parameter uncertainty that can be handled. We first show how constraints that are robust to inertial parameter uncertainty can be incorporated into an optimization-based motion planning framework to transport objects while moving quickly. Next, we develop necessary conditions for the inertial parameters to be realizable on a bounding shape based on moment relaxations, allowing us to verify whether a trajectory will violate the constraints for any realizable inertial parameters. Finally, we demonstrate our approach on a mobile manipulator in simulations and real hardware experiments: our proposed robust constraints consistently successfully transport a 56 cm tall object with substantial inertial parameter uncertainty in the real world, while the baseline approaches drop the object while transporting it.

arxiv情報

著者 Adam Heins,Angela P. Schoellig
発行日 2025-03-31 15:25:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Robust Nonprehensile Object Transportation with Uncertain Inertial Parameters はコメントを受け付けていません

Reinforcement Learning for Safe Autonomous Two Device Navigation of Cerebral Vessels in Mechanical Thrombectomy

要約

目的:機械的血栓切除術(MT)の自律システムは、手順時間を短縮し、放射線被曝を最小限に抑え、患者の安全性を高めることを約束します。
ただし、現在の強化学習(RL)方法は、頸動脈にのみ到達し、他の患者の血管に一般化できず、安全性を考慮しません。
頸動脈を越えて脳血管に移動できる安全なデュアルデバイスRLアルゴリズムを提案します。
方法:シミュレーションオープンフレームワークアーキテクチャを使用して、大脳血管の複雑さと、修正されたソフトアクタークリティックRLアルゴリズムを表して、初めてマイクロカテーターとマイクロガイドワイヤのナビゲーションを学習しました。
ガイドワイヤーのチップフォースを統合することにより、患者の安全メトリックを報酬機能に組み込みます。
逆RLは、12の患者固有の血管症例に関するデモンストレーターデータで使用されます。
結果:私たちのシミュレーションは、目に見えない大脳血管内での自律的なナビゲーションが成功し、96%の成功率、7.0秒の手順時間、および0.24 Nの平均力を達成し、提案された1.5 N容器破裂閾値を大きく下回っています。
結論:私たちの知る限り、MT 2デバイスナビゲーションのための提案された自律システムは脳血管に到達し、安全性を考慮し、初めて目に見えない患者固有の症例に一般化できます。
将来の作業により、検証がさまざまな複雑さの維持およびin vitroモデルに拡張されると考えています。
私たちの貢献は、臨床環境でエージェントの展開への道を開いていますが、安全性と信頼性は、新しい方法論を提案する際に考慮すべき重要な要素です。

要約(オリジナル)

Purpose: Autonomous systems in mechanical thrombectomy (MT) hold promise for reducing procedure times, minimizing radiation exposure, and enhancing patient safety. However, current reinforcement learning (RL) methods only reach the carotid arteries, are not generalizable to other patient vasculatures, and do not consider safety. We propose a safe dual-device RL algorithm that can navigate beyond the carotid arteries to cerebral vessels. Methods: We used the Simulation Open Framework Architecture to represent the intricacies of cerebral vessels, and a modified Soft Actor-Critic RL algorithm to learn, for the first time, the navigation of micro-catheters and micro-guidewires. We incorporate patient safety metrics into our reward function by integrating guidewire tip forces. Inverse RL is used with demonstrator data on 12 patient-specific vascular cases. Results: Our simulation demonstrates successful autonomous navigation within unseen cerebral vessels, achieving a 96% success rate, 7.0s procedure time, and 0.24 N mean forces, well below the proposed 1.5 N vessel rupture threshold. Conclusion: To the best of our knowledge, our proposed autonomous system for MT two-device navigation reaches cerebral vessels, considers safety, and is generalizable to unseen patient-specific cases for the first time. We envisage future work will extend the validation to vasculatures of different complexity and on in vitro models. While our contributions pave the way towards deploying agents in clinical settings, safety and trustworthiness will be crucial elements to consider when proposing new methodology.

arxiv情報

著者 Harry Robertshaw,Benjamin Jackson,Jiaheng Wang,Hadi Sadati,Lennart Karstensen,Alejandro Granados,Thomas C Booth
発行日 2025-03-31 14:25:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Reinforcement Learning for Safe Autonomous Two Device Navigation of Cerebral Vessels in Mechanical Thrombectomy はコメントを受け付けていません

LLM4FS: Leveraging Large Language Models for Feature Selection and How to Improve It

要約

大規模な言語モデル(LLMS)の最近の進歩は、特に自動化された機能選択のタスクにおいて、意思決定の新しい機会を提供しました。
この論文では、最初にLLMベースの特徴選択方法を包括的に評価し、最先端のDeepSeek-R1、GPT-O3-MINI、およびGPT-4.5をカバーします。
次に、LLMを従来のデータ駆動型メソッドと統合するLLM4FSと呼ばれる新しいハイブリッド戦略を提案します。
具体的には、データサンプルをLLMに入力し、ランダムフォレストやフォワードシーケンシャル選択などの従来のデータ駆動型手法を直接呼び出します。
特に、我々の分析により、ハイブリッド戦略は、LLMSのコンテキスト的理解と、LLMSや従来のデータ駆動型方法を上回ることさえ、優れた機能選択パフォーマンスを実現するための従来のデータ駆動型方法の高い統計的信頼性を活用していることが明らかになりました。
最後に、意思決定におけるアプリケーションの限界を指摘します。

要約(オリジナル)

Recent advances in large language models (LLMs) have provided new opportunities for decision-making, particularly in the task of automated feature selection. In this paper, we first comprehensively evaluate LLM-based feature selection methods, covering the state-of-the-art DeepSeek-R1, GPT-o3-mini, and GPT-4.5. Then, we propose a novel hybrid strategy called LLM4FS that integrates LLMs with traditional data-driven methods. Specifically, input data samples into LLMs, and directly call traditional data-driven techniques such as random forest and forward sequential selection. Notably, our analysis reveals that the hybrid strategy leverages the contextual understanding of LLMs and the high statistical reliability of traditional data-driven methods to achieve excellent feature selection performance, even surpassing LLMs and traditional data-driven methods. Finally, we point out the limitations of its application in decision-making.

arxiv情報

著者 Jianhao Li,Xianchao Xiu
発行日 2025-03-31 14:40:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | LLM4FS: Leveraging Large Language Models for Feature Selection and How to Improve It はコメントを受け付けていません

Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantees via Constrained Mean-Field Reinforcement Learning

要約

Uber、Lyft、Didi Chuxingなどの乗り心地サービスの迅速な拡大は、モバイルアプリケーションを介して柔軟でオンデマンドのモビリティを提供することにより、都市輸送を根本的に再構築しました。
これらのプラットフォームは、その利便性にもかかわらず、重要な運用上の課題、特に車両のリバランスに直面しています。これは、需要と供給の時空間的な不一致に対処するための数千台の車両の戦略的再配置です。
不十分なリバランスにより、ライダーの待機時間が長く、非効率的な車両の利用、およびサービスの不公正な分布が生じ、ドライバーの利用可能性と収入の格差につながります。
これらの複雑さに取り組むために、各車両の正確な位置を明示的に表現し、他の車両の分布によって導かれる連続位置の再配置アクションを採用するスケーラブルな連続状態平均フィールド制御(MFC)および補強学習(MFRL)モデルを導入します。
公平なサービス分布を確保するために、アクセシビリティの制約が最適な制御策定に統合され、地理的地域全体のサービスへの公平なアクセスと運用効率のバランスをとります。
私たちのアプローチは、遷移の固有の確率性、車両ライダーのマッチングの同時発生、車両のリバランスとクルージング、ライダー行動の変動など、現実的な条件を認めています。
重要なことに、私たちは実用的なシナリオをよりよく反映して、等しい供給需要の等量のボリュームの従来の平均場の仮定を緩和します。
深Shenzhenの実際のデータ駆動型シミュレーションを使用した広範な経験的評価は、数万台の車両の規模でのアプローチのリアルタイム効率と堅牢性を示しています。
このコードは、https://github.com/mjusup1501/mf-vehicle-rebalanceで入手できます。

要約(オリジナル)

The rapid expansion of ride-sourcing services such as Uber, Lyft, and Didi Chuxing has fundamentally reshaped urban transportation by offering flexible, on-demand mobility via mobile applications. Despite their convenience, these platforms confront significant operational challenges, particularly vehicle rebalancing – the strategic repositioning of thousands of vehicles to address spatiotemporal mismatches in supply and demand. Inadequate rebalancing results in prolonged rider waiting times, inefficient vehicle utilization, and inequitable distribution of services, leading to disparities in driver availability and income. To tackle these complexities, we introduce scalable continuous-state mean-field control (MFC) and reinforcement learning (MFRL) models that explicitly represent each vehicle’s precise location and employ continuous repositioning actions guided by the distribution of other vehicles. To ensure equitable service distribution, an accessibility constraint is integrated within our optimal control formulation, balancing operational efficiency with equitable access to the service across geographic regions. Our approach acknowledges realistic conditions, including inherent stochasticity in transitions, the simultaneous occurrence of vehicle-rider matching, vehicles’ rebalancing and cruising, and variability in rider behaviors. Crucially, we relax the traditional mean-field assumption of equal supply-demand volume, better reflecting practical scenarios. Extensive empirical evaluation using real-world data-driven simulation of Shenzhen demonstrates the real-time efficiency and robustness of our approach at the scale of tens of thousands of vehicles. The code is available at https://github.com/mjusup1501/mf-vehicle-rebalancing.

arxiv情報

著者 Matej Jusup,Kenan Zhang,Zhiyuan Hu,Barna Pásztor,Andreas Krause,Francesco Corman
発行日 2025-03-31 15:00:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA | Ride-Sourcing Vehicle Rebalancing with Service Accessibility Guarantees via Constrained Mean-Field Reinforcement Learning はコメントを受け付けていません

Distributed Fractional Bayesian Learning for Adaptive Optimization

要約

このペーパーでは、すべてのエージェントが共通の未知のパラメーターを使用してローカルコスト関数のみにアクセスできる分散適応最適化問題を考慮しますが、真のパラメーターを共同で推定し、接続されたネットワーク上で最適なソリューションを見つけることを意味します。
このような問題の一般的な数学的枠組みはまだ研究されていません。
分散最適化問題のパラメーターの不確実性に対処するための貴重な洞察を提供し、同時に最適なソリューションを見つけることを目指しています。
したがって、ログ信念の加重平均化を通じて分散された画分ベイジアン学習を利用して、未知のパラメーターの信念を更新するために、分散した分別ベイジアン学習を利用し、最適な解の推定を更新するための分散勾配降下を使用している間、新しい予測を提案します。
次に、適切な仮定の下で、すべてのエージェントの信念と決定変数が、それぞれ真のパラメーターの下でそれぞれ真のパラメーターと最適なソリューションにほぼ確実に収束することを証明します。
さらに、信念シーケンスのサブリン収束率を確立します。
最後に、理論分析を裏付けるために数値実験が実装されます。

要約(オリジナル)

This paper considers a distributed adaptive optimization problem, where all agents only have access to their local cost functions with a common unknown parameter, whereas they mean to collaboratively estimate the true parameter and find the optimal solution over a connected network. A general mathematical framework for such a problem has not been studied yet. We aim to provide valuable insights for addressing parameter uncertainty in distributed optimization problems and simultaneously find the optimal solution. Thus, we propose a novel Prediction while Optimization scheme, which utilizes distributed fractional Bayesian learning through weighted averaging on the log-beliefs to update the beliefs of unknown parameters, and distributed gradient descent for renewing the estimation of the optimal solution. Then under suitable assumptions, we prove that all agents’ beliefs and decision variables converge almost surely to the true parameter and the optimal solution under the true parameter, respectively. We further establish a sublinear convergence rate for the belief sequence. Finally, numerical experiments are implemented to corroborate the theoretical analysis.

arxiv情報

著者 Yaqun Yang,Jinlong Lei,Guanghui Wen,Yiguang Hong
発行日 2025-03-31 15:02:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG, cs.MA, math.OC | Distributed Fractional Bayesian Learning for Adaptive Optimization はコメントを受け付けていません

NeuRaLaTeX: A machine learning library written in pure LaTeX

要約

この論文では、Neuralatexを紹介します。これは、LaTexで完全に書かれた最初の深い学習ライブラリであると考えています。
LaTexドキュメントの一部として、ニューラルネットワークとその損失関数のアーキテクチャを指定し、トレーニングデータを生成またはロードする方法を定義し、トレーニングのハイパーパラメーターと実験を指定できます。
ドキュメントがコンパイルされると、LaTexコンパイラはトレーニングデータを生成またはロードし、ネットワークをトレーニングし、実験を実行し、数値を生成します。
このペーパーでは、ランダムな100ポイントスパイラルデータセットを生成し、2層のMLPを訓練し、異なるランダムスパイラルデータセットで評価し、プロットと結果の表を生成します。
この論文はコンパイルに48時間かかり、Neuralatexのソースコード全体が論文のソースコードに含まれています。
2つの新しいメトリックを提案します。ラテックス(WIL)メトリックで記述されたメトリックは、純粋なラテックスで記述された機械学習ライブラリの割合を測定しますが、ソースメソッドの紙(Scomiscop)メトリックのソースコードは、紙のソースに含まれる紙の実装の割合を測定します。
私たちは両方のメトリックの最先端であり、ResNetおよびTransformer Papers、PytorchおよびTensorflowライブラリを上回っています。
ソースコード、ドキュメント、ビデオ、暗号詐欺、およびNeuralatexの商業化への投資への招待状は、https://www.neuralatex.comで入手できます。

要約(オリジナル)

In this paper, we introduce NeuRaLaTeX, which we believe to be the first deep learning library written entirely in LaTeX. As part of your LaTeX document you can specify the architecture of a neural network and its loss functions, define how to generate or load training data, and specify training hyperparameters and experiments. When the document is compiled, the LaTeX compiler will generate or load training data, train the network, run experiments, and generate figures. This paper generates a random 100 point spiral dataset, trains a two layer MLP on it, evaluates on a different random spiral dataset, produces plots and tables of results. The paper took 48 hours to compile and the entire source code for NeuRaLaTeX is contained within the source code of the paper. We propose two new metrics: the Written In Latex (WIL) metric measures the proportion of a machine learning library that is written in pure LaTeX, while the Source Code Of Method in Source Code of Paper (SCOMISCOP) metric measures the proportion of a paper’s implementation that is contained within the paper source. We are state-of-the-art for both metrics, outperforming the ResNet and Transformer papers, as well as the PyTorch and Tensorflow libraries. Source code, documentation, videos, crypto scams and an invitation to invest in the commercialisation of NeuRaLaTeX are available at https://www.neuralatex.com

arxiv情報

著者 James A. D. Gardner,Will Rowan,William A. P. Smith
発行日 2025-03-31 15:05:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | NeuRaLaTeX: A machine learning library written in pure LaTeX はコメントを受け付けていません

Traffic Engineering in Large-scale Networks with Generalizable Graph Neural Networks

要約

大規模なコンピューターネットワークのトラフィックエンジニアリング(TE)は、グローバルスケールクラウドワイドエリアネットワークの迅速な成長またはバックボーンの低地球軌道衛星星座の迅速な成長により、根本的でありながら挑戦的な問題となっています。
従来のTEアルゴリズムのスケーラビリティの問題に対処するために、学習ベースのアプローチが提案されており、最先端の方法よりも効率的な大幅な改善の可能性を示しています。
それにもかかわらず、既存の学習ベースの方法の本質的な制限は、実用的なアプリケーションを妨害します。それらは、多様なトポロジやネットワーク条件にわたって一般化できず、オーバーヘッドの過剰なトレーニングを受け、デフォルトでリンク容量を尊重しません。
このペーパーでは、大規模なネットワークで問題を効率的に解決しながら、多様なネットワーク条件全体で優れた一般化可能性を達成することを学ぶ新しいTEアルゴリズムであるTelgenを提案します。
Telgenは、「最適なTEソリューションを予測する」という問題を「最適なTEアルゴリズムの予測」に変換するという斬新なアイデアに基づいています。これにより、Telgenは古典的な最適なTEアルゴリズムのエンドツーエンドの解決プロセスを学習し、効率的に近似できます。
学習されたアルゴリズムは、正確なネットワークトポロジまたはトラフィックパターンに不可知論されており、任意の入力を考慮して問題を効率的に解決し、目に見えないトポロジと要求に合わせて適切に一般化できます。
最大5000のノードと106のリンクを備えたランダムおよび実際のネットワークでTelgenをトレーニングおよび評価しました。
Telgenは、テストネットワークがトレーニングで最大のノードよりも最大20倍多くのノードを持っていた場合でも、すべての場合に実現可能性を確保しながら、最適性のギャップが3%未満に達しました。
また、古典的な最適ソルバーよりも最大84%の解決時間を節約し、エポックあたりのトレーニング時間を短縮し、最大のネットワーク上の最新の学習アルゴリズムよりも2〜4桁の時間を短縮することができました。

要約(オリジナル)

Traffic engineering (TE) in large-scale computer networks has become a fundamental yet challenging problem, owing to the swift growth of global-scale cloud wide-area networks or backbone low-Earth-orbit satellite constellations. To address the scalability issue of traditional TE algorithms, learning-based approaches have been proposed, showing potential of significant efficiency improvement over state-of-the-art methods. Nevertheless, the intrinsic limitations of existing learning-based methods hinder their practical application: they are not generalizable across diverse topologies and network conditions, incur excessive training overhead, and do not respect link capacities by default. This paper proposes TELGEN, a novel TE algorithm that learns to solve TE problems efficiently in large-scale networks, while achieving superior generalizability across diverse network conditions. TELGEN is based on the novel idea of transforming the problem of ‘predicting the optimal TE solution’ into ‘predicting the optimal TE algorithm’, which enables TELGEN to learn and efficiently approximate the end-to-end solving process of classical optimal TE algorithms. The learned algorithm is agnostic to the exact network topology or traffic patterns, and can efficiently solve TE problems given arbitrary inputs and generalize well to unseen topologies and demands. We trained and evaluated TELGEN on random and real-world networks with up to 5000 nodes and 106 links. TELGEN achieved less than 3% optimality gap while ensuring feasibility in all cases, even when the test network had up to 20x more nodes than the largest in training. It also saved up to 84% solving time than classical optimal solver, and could reduce training time per epoch and solving time by 2-4 orders of magnitude than latest learning algorithms on the largest networks.

arxiv情報

著者 Fangtong Zhou,Xiaorui Liu,Ruozhou Yu,Guoliang Xue
発行日 2025-03-31 15:21:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NI | Traffic Engineering in Large-scale Networks with Generalizable Graph Neural Networks はコメントを受け付けていません