TOP-ERL: Transformer-based Off-Policy Episodic Reinforcement Learning

要約

この作業では、ERLフレームワークでオフポリシーの更新を可能にする新しいアルゴリズムである、変圧器ベースのポリシーオフポリシーエピソード補強学習(TOP-ERL)を紹介します。
ERLでは、ポリシーは、毎回単一のアクションではなく、複数の時間ステップでアクション全体の軌跡を予測します。
これらの軌道は通常、運動プリミティブ(MP)などの軌跡ジェネレーターによってパラメーター化され、高レベルの時間的相関をキャプチャしながら、長い視野にわたってスムーズで効率的な探索を可能にします。
ただし、ERLメソッドは、アクションシーケンス全体の状態アクション値を評価し、サンプルの効率を制限し、より効率的なポリシーアーキテクチャの使用を防ぐことが難しいため、多くの場合、ポリシーのフレームワークに制約されます。
Top-ERLは、長いアクションシーケンスをセグメント化し、変圧器ベースの批評家アーキテクチャを使用してN-STEPリターン推定を使用して各セグメントの状態アクション値を推定することにより、この欠点に対処します。
これらの貢献により、洗練されたロボット学習環境で行われた経験的結果に反映される効率的で安定したトレーニングが生じます。
Top-erlは、最先端のRLメソッドを大幅に上回ります。
さらに、徹底的なアブレーション研究は、モデルのパフォーマンスに対する主要な設計の選択の影響をさらに示しています。

要約(オリジナル)

This work introduces Transformer-based Off-Policy Episodic Reinforcement Learning (TOP-ERL), a novel algorithm that enables off-policy updates in the ERL framework. In ERL, policies predict entire action trajectories over multiple time steps instead of single actions at every time step. These trajectories are typically parameterized by trajectory generators such as Movement Primitives (MP), allowing for smooth and efficient exploration over long horizons while capturing high-level temporal correlations. However, ERL methods are often constrained to on-policy frameworks due to the difficulty of evaluating state-action values for entire action sequences, limiting their sample efficiency and preventing the use of more efficient off-policy architectures. TOP-ERL addresses this shortcoming by segmenting long action sequences and estimating the state-action values for each segment using a transformer-based critic architecture alongside an n-step return estimation. These contributions result in efficient and stable training that is reflected in the empirical results conducted on sophisticated robot learning environments. TOP-ERL significantly outperforms state-of-the-art RL methods. Thorough ablation studies additionally show the impact of key design choices on the model performance.

arxiv情報

著者 Ge Li,Dong Tian,Hongyi Zhou,Xinkai Jiang,Rudolf Lioutikov,Gerhard Neumann
発行日 2025-02-13 22:04:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | TOP-ERL: Transformer-based Off-Policy Episodic Reinforcement Learning はコメントを受け付けていません

Vision-based Geo-Localization of Future Mars Rotorcraft in Challenging Illumination Conditions

要約

航空資産を使用した惑星探査は、火星に関する前例のない科学的発見の可能性があります。
NASAの火星ヘリコプターの創意工夫は火星の大気への飛行が可能であることを証明しましたが、将来の火星のロトクラフトには、長距離便に高度なナビゲーション機能が必要です。
このような重要な機能の1つは、視覚臭トから累積ドリフトを緩和するために、飛行中にオンボード画像を参照マップに登録するMAPベースのローカリゼーション(MBL)です。
ただし、ロトクラフトの観測と参照マップの間の照明の違いは、従来のMBLシステムに挑戦的であることが証明されており、車両の運用ウィンドウが制限されます。
この作業では、新しいMBLシステムを調査し、Geo-Loftrを提案します。Geo-Loftrは、以前のモデルよりも大きな照明の違いの下でより堅牢な画像登録の幾何学的な深い学習モデルです。
このシステムは、実際の軌道マップを使用して火星の地形の大量の現実的な画像を作成するカスタムシミュレーションフレームワークによってサポートされています。
包括的な評価は、私たちの提案されたシステムが、大幅な照明とスケールのバリエーションの下でのローカリゼーションの精度の観点から、以前のMBLの取り組みよりも優れていることを示しています。
さらに、シミュレートされた火星の日におけるアプローチの妥当性を示します。

要約(オリジナル)

Planetary exploration using aerial assets has the potential for unprecedented scientific discoveries on Mars. While NASA’s Mars helicopter Ingenuity proved flight in Martian atmosphere is possible, future Mars rotocrafts will require advanced navigation capabilities for long-range flights. One such critical capability is Map-based Localization (MbL) which registers an onboard image to a reference map during flight in order to mitigate cumulative drift from visual odometry. However, significant illumination differences between rotocraft observations and a reference map prove challenging for traditional MbL systems, restricting the operational window of the vehicle. In this work, we investigate a new MbL system and propose Geo-LoFTR, a geometry-aided deep learning model for image registration that is more robust under large illumination differences than prior models. The system is supported by a custom simulation framework that uses real orbital maps to produce large amounts of realistic images of the Martian terrain. Comprehensive evaluations show that our proposed system outperforms prior MbL efforts in terms of localization accuracy under significant lighting and scale variations. Furthermore, we demonstrate the validity of our approach across a simulated Martian day.

arxiv情報

著者 Dario Pisanti,Robert Hewitt,Roland Brockers,Georgios Georgakis
発行日 2025-02-13 22:10:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Vision-based Geo-Localization of Future Mars Rotorcraft in Challenging Illumination Conditions はコメントを受け付けていません

Suture Thread Modeling Using Control Barrier Functions for Autonomous Surgery

要約

手術システムを自動化すると、高リスクの環境への人間の関与を減らしながら、精度と安全性が向上します。
縫合などの外科的処置を自動化する上での主要な課題は、非常に柔軟で準拠したコンポーネントである縫合スレッドを正確にモデル化することです。
既存のモデルは、安全性の重要な手順に必要な精度を欠いているか、リアルタイムの実行には計算的に集中しすぎています。
この作業では、コントロールバリア関数(CBF)を使用して縫合スレッドのダイナミクスをモデル化するための新しいアプローチを紹介し、リアリズムと計算効率の両方を達成します。
スレッドのような動作、衝突回避、剛性、減衰はすべて、統一されたCBFおよび制御リアプノフ関数(CLF)フレームワーク内でモデル化されます。
私たちのアプローチは、複雑な力を計算したり、微分方程式を解決したりする必要性を排除し、自動化と仮想現実外科トレーニングシステムの両方に適した現実的なモデルを維持しながら、計算オーバーヘッドを大幅に削減します。
また、このフレームワークでは、スレッドと環境との相互作用に基づいて視覚的な手がかりを提供し、縫合またはライゲーションタスクを実行する際のユーザーエクスペリエンスを向上させることができます。
提案されたモデルは、磁場を使用して縫合針を操作する最小限のロボット外科プラットフォームである磁気式システムでテストされ、外科的処置のための侵襲性の低い溶液を提供します。

要約(オリジナル)

Automating surgical systems enhances precision and safety while reducing human involvement in high-risk environments. A major challenge in automating surgical procedures like suturing is accurately modeling the suture thread, a highly flexible and compliant component. Existing models either lack the accuracy needed for safety critical procedures or are too computationally intensive for real time execution. In this work, we introduce a novel approach for modeling suture thread dynamics using control barrier functions (CBFs), achieving both realism and computational efficiency. Thread like behavior, collision avoidance, stiffness, and damping are all modeled within a unified CBF and control Lyapunov function (CLF) framework. Our approach eliminates the need to calculate complex forces or solve differential equations, significantly reducing computational overhead while maintaining a realistic model suitable for both automation and virtual reality surgical training systems. The framework also allows visual cues to be provided based on the thread’s interaction with the environment, enhancing user experience when performing suture or ligation tasks. The proposed model is tested on the MagnetoSuture system, a minimally invasive robotic surgical platform that uses magnetic fields to manipulate suture needles, offering a less invasive solution for surgical procedures.

arxiv情報

著者 Kimia Forghani,Suraj Raval,Lamar Mair,Axel Krieger,Yancy Diaz-Mercado
発行日 2025-02-13 23:13:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Suture Thread Modeling Using Control Barrier Functions for Autonomous Surgery はコメントを受け付けていません

PUGS: Perceptual Uncertainty for Grasp Selection in Underwater Environments

要約

感覚情報が不完全で不完全な挑戦的な環境でナビゲートおよび相互作用する場合、ロボットはこれらの欠点を説明する決定を下す必要があります。
占有の不確実性の推定による3D再構成におけるこのような知覚的不確実性を定量化および表現するための新しい方法を提案します。
私たちは、水中環境での自律操作のための選択にそれを把握するためのフレームワークを開発します。
どの場所を把握するかを決定する際に各測定を均等に扱う代わりに、マルチビューの再構成プロセスに固有の不確実性を把握選択に伝播するフレームワークを提示します。
シミュレートされたデータと現実世界の両方のデータを使用して方法を評価し、不確実性を考慮することにより、把握選択が部分的で騒々しい測定に対して堅牢になることを示しています。
コードはhttps://onurbagoren.github.io/pugs/で利用可能になります

要約(オリジナル)

When navigating and interacting in challenging environments where sensory information is imperfect and incomplete, robots must make decisions that account for these shortcomings. We propose a novel method for quantifying and representing such perceptual uncertainty in 3D reconstruction through occupancy uncertainty estimation. We develop a framework to incorporate it into grasp selection for autonomous manipulation in underwater environments. Instead of treating each measurement equally when deciding which location to grasp from, we present a framework that propagates uncertainty inherent in the multi-view reconstruction process into the grasp selection. We evaluate our method with both simulated and the real world data, showing that by accounting for uncertainty, the grasp selection becomes robust against partial and noisy measurements. Code will be made available at https://onurbagoren.github.io/PUGS/

arxiv情報

著者 Onur Bagoren,Marc Micatka,Katherine A. Skinner,Aaron Marburg
発行日 2025-02-13 23:41:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | PUGS: Perceptual Uncertainty for Grasp Selection in Underwater Environments はコメントを受け付けていません

Efficient Evaluation of Multi-Task Robot Policies With Active Experiment Selection

要約

学習したロボット制御ポリシーを評価して、物理的なタスクレベルの機能を決定するために、実験者の時間と労力を費やします。
ますます多くのポリシーとタスクがこの問題を悪化させます。
すべてのタスクのすべてのポリシーを複数回テストすることは非現実的です。
各トライアルには手動環境のリセットが必要であり、各タスクの変更には、オブジェクトの再配置またはロボットの変更さえ含まれます。
評価するタスクとポリシーのランダムサブセットを素朴に選択することは、信頼できない、不完全な結果を伴う高コストのソリューションです。
この作業では、アクティブなテストの問題としてロボット評価を策定します。
実験を順次実行する際に、すべてのタスクとポリシーにわたるロボット性能の分布をモデル化することを提案します。
タスクは、多くの場合、政策行動における潜在的な関係を明らかにする可能性のある類似点を共有します。また、自然言語は、タスク間のこれらの関係をモデル化する上で有用であることを示しています。
次に、この定式化を活用して、コスト認識の予想情報ゲインヒューリスティックを使用して、有益な試験を効率的に選択することにより、実験者の努力を減らします。
私たちのフレームワークは、連続的および個別のパフォーマンスの両方の成果に対応しています。
実際のロボットとシミュレーションからの既存の評価データに関する実験を実施します。
有益な試験に優先順位を付けることにより、私たちのフレームワークは、多くのタスクにわたるロボットポリシーの評価メトリックを計算するコストを削減します。

要約(オリジナル)

Evaluating learned robot control policies to determine their physical task-level capabilities costs experimenter time and effort. The growing number of policies and tasks exacerbates this issue. It is impractical to test every policy on every task multiple times; each trial requires a manual environment reset, and each task change involves re-arranging objects or even changing robots. Naively selecting a random subset of tasks and policies to evaluate is a high-cost solution with unreliable, incomplete results. In this work, we formulate robot evaluation as an active testing problem. We propose to model the distribution of robot performance across all tasks and policies as we sequentially execute experiments. Tasks often share similarities that can reveal potential relationships in policy behavior, and we show that natural language is a useful prior in modeling these relationships between tasks. We then leverage this formulation to reduce the experimenter effort by using a cost-aware expected information gain heuristic to efficiently select informative trials. Our framework accommodates both continuous and discrete performance outcomes. We conduct experiments on existing evaluation data from real robots and simulations. By prioritizing informative trials, our framework reduces the cost of calculating evaluation metrics for robot policies across many tasks.

arxiv情報

著者 Abrar Anwar,Rohan Gupta,Zain Merchant,Sayan Ghosh,Willie Neiswanger,Jesse Thomason
発行日 2025-02-14 00:07:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Efficient Evaluation of Multi-Task Robot Policies With Active Experiment Selection はコメントを受け付けていません

COMBO-Grasp: Learning Constraint-Based Manipulation for Bimanual Occluded Grasping

要約

このペーパーでは、閉塞されたロボットの把握の課題、つまり、表面衝突などの環境制約のために、望ましい把握ポーズが運動的に実行不可能な状況で把握します。
従来のロボット操作アプローチは、これらの状況で一般的に人間が一般的に使用する非摂食または両倍の戦略の複雑さと闘っています。
タスクの固有の複雑さのために、最先端の強化学習(RL)方法は不適切です。
対照的に、デモンストレーションから学ぶには、かなりの数の専門家デモを収集する必要がありますが、これはしばしば実行不可能です。
代わりに、両手が調整してオブジェクトを安定させ、方向転換する人間の操作戦略に触発されて、この課題に取り組むための二元的なロボットセットアップに焦点を当てます。
特に、2つの調整されたポリシーを活用する学習ベースのアプローチ:自己監視データセットを使用して安定化ポーズを生成し、RLLを使用して訓練された把握ポリシーを訓練する学習ベースのアプローチ、およびRL
ターゲットオブジェクトを再配分および把握します。
重要な貢献は、価値関数誘導ポリシー調整にあります。
具体的には、把握ポリシーのRLトレーニング中に、制約ポリシーの出力は、共同トレーニングされた価値関数からの勾配を通じて洗練され、両手調整とタスクのパフォーマンスが向上します。
最後に、Combo-Graspは教師と学生のポリシーの蒸留を採用して、現実世界の環境でポイントクラウドベースのポリシーを効果的に展開しています。
経験的評価は、コンボグラスが競争力のあるベースラインアプローチと比較してタスクの成功率を大幅に改善することを示しています。

要約(オリジナル)

This paper addresses the challenge of occluded robot grasping, i.e. grasping in situations where the desired grasp poses are kinematically infeasible due to environmental constraints such as surface collisions. Traditional robot manipulation approaches struggle with the complexity of non-prehensile or bimanual strategies commonly used by humans in these circumstances. State-of-the-art reinforcement learning (RL) methods are unsuitable due to the inherent complexity of the task. In contrast, learning from demonstration requires collecting a significant number of expert demonstrations, which is often infeasible. Instead, inspired by human bimanual manipulation strategies, where two hands coordinate to stabilise and reorient objects, we focus on a bimanual robotic setup to tackle this challenge. In particular, we introduce Constraint-based Manipulation for Bimanual Occluded Grasping (COMBO-Grasp), a learning-based approach which leverages two coordinated policies: a constraint policy trained using self-supervised datasets to generate stabilising poses and a grasping policy trained using RL that reorients and grasps the target object. A key contribution lies in value function-guided policy coordination. Specifically, during RL training for the grasping policy, the constraint policy’s output is refined through gradients from a jointly trained value function, improving bimanual coordination and task performance. Lastly, COMBO-Grasp employs teacher-student policy distillation to effectively deploy point cloud-based policies in real-world environments. Empirical evaluations demonstrate that COMBO-Grasp significantly improves task success rates compared to competitive baseline approaches, with successful generalisation to unseen objects in both simulated and real-world environments.

arxiv情報

著者 Jun Yamada,Alexander L. Mitchell,Jack Collins,Ingmar Posner
発行日 2025-02-14 00:15:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | COMBO-Grasp: Learning Constraint-Based Manipulation for Bimanual Occluded Grasping はコメントを受け付けていません

DynoSAM: Open-Source Smoothing and Mapping Framework for Dynamic SLAM

要約

従来の視覚的な同時ローカリゼーションとマッピング(VSLAM)システムは、環境内の動的要素を見落とす静的シーン構造のみに焦点を当てています。
複雑なシナリオでの正確な視覚的臭気に効果的ですが、これらの方法は、移動するオブジェクトに関する重要な情報を破棄します。
この情報を動的なスラムフレームワークに組み込むことにより、動的なエンティティの動きを推定することができ、正確なローカリゼーションを確保しながらナビゲーションを強化します。
ただし、動的なスラムの基本的な定式化は、スラムパイプライン内の正確なモーション推定のための最適なアプローチに関するコンセンサスはありません。
したがって、さまざまな動的スラム最適化定式化の効率的な実装、テスト、および比較を可能にする動的スラムのオープンソースフレームワークであるDynosamを開発しました。
Dynosamは、因子グラフを使用して解決された統合最適化問題に静的および動的測定を統合し、カメラのポーズ、静的シーン、オブジェクトの動きまたはポーズ、およびオブジェクト構造の推定を同時に推定します。
多様なシミュレーションおよび実際のデータセット全体でDynosamを評価し、屋内および屋外環境で最先端のモーション推定を達成し、既存のシステムを大幅に改善します。
さらに、動的シーンの3D再構築や軌道予測など、下流のアプリケーションでDynosamユーティリティを示し、それにより、動的なオブジェクトを意識したスラムシステムを進める可能性を示します。
Dynosamは、https://github.com/acfr-rpg/dynosamでオープンソーシングされています。

要約(オリジナル)

Traditional Visual Simultaneous Localization and Mapping (vSLAM) systems focus solely on static scene structures, overlooking dynamic elements in the environment. Although effective for accurate visual odometry in complex scenarios, these methods discard crucial information about moving objects. By incorporating this information into a Dynamic SLAM framework, the motion of dynamic entities can be estimated, enhancing navigation whilst ensuring accurate localization. However, the fundamental formulation of Dynamic SLAM remains an open challenge, with no consensus on the optimal approach for accurate motion estimation within a SLAM pipeline. Therefore, we developed DynoSAM, an open-source framework for Dynamic SLAM that enables the efficient implementation, testing, and comparison of various Dynamic SLAM optimization formulations. DynoSAM integrates static and dynamic measurements into a unified optimization problem solved using factor graphs, simultaneously estimating camera poses, static scene, object motion or poses, and object structures. We evaluate DynoSAM across diverse simulated and real-world datasets, achieving state-of-the-art motion estimation in indoor and outdoor environments, with substantial improvements over existing systems. Additionally, we demonstrate DynoSAM utility in downstream applications, including 3D reconstruction of dynamic scenes and trajectory prediction, thereby showcasing potential for advancing dynamic object-aware SLAM systems. DynoSAM is open-sourced at https://github.com/ACFR-RPG/DynOSAM.

arxiv情報

著者 Jesse Morris,Yiduo Wang,Mikolaj Kliniewski,Viorela Ila
発行日 2025-02-14 01:24:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DynoSAM: Open-Source Smoothing and Mapping Framework for Dynamic SLAM はコメントを受け付けていません

DR-MPC: Deep Residual Model Predictive Control for Real-world Social Navigation

要約

ロボットは、複雑なモーションパターンを持つ人々を安全にナビゲートするにはどうすればよいですか?
シミュレーションのディープ補強学習(DRL)にはいくつかの有望がありますが、多くの事前の作業は、実際の人間の動きのニュアンスを捉えることができないシミュレーターに依存しています。
したがって、ロボットが実際の群衆ナビゲーションデータからDRLを迅速かつ安全に実行できるようにするために、深い残差モデル予測制御(DR-MPC)を提案します。
MPCとモデルフリーDRLとブレンドすることにより、DR-MPCは大規模なデータ要件と危険な初期動作のDRL課題を克服します。
DR-MPCはMPCベースのパス追跡で初期化されており、徐々に人間とより効果的に相互作用することを学びます。
学習をさらに加速するために、安全コンポーネントは分散除外状態を推定して、衝突の可能性からロボットを導きます。
シミュレーションでは、DR-MPCが従来のDRLモデルや残留DRLモデルを含む以前の作業を大幅に上回ることを示しています。
ハードウェアの実験により、私たちのアプローチにより、ロボットは4時間未満のトレーニングデータを使用してほとんどエラーでさまざまな混雑した状況をナビゲートできるようになりました。

要約(オリジナル)

How can a robot safely navigate around people with complex motion patterns? Deep Reinforcement Learning (DRL) in simulation holds some promise, but much prior work relies on simulators that fail to capture the nuances of real human motion. Thus, we propose Deep Residual Model Predictive Control (DR-MPC) to enable robots to quickly and safely perform DRL from real-world crowd navigation data. By blending MPC with model-free DRL, DR-MPC overcomes the DRL challenges of large data requirements and unsafe initial behavior. DR-MPC is initialized with MPC-based path tracking, and gradually learns to interact more effectively with humans. To further accelerate learning, a safety component estimates out-of-distribution states to guide the robot away from likely collisions. In simulation, we show that DR-MPC substantially outperforms prior work, including traditional DRL and residual DRL models. Hardware experiments show our approach successfully enables a robot to navigate a variety of crowded situations with few errors using less than 4 hours of training data.

arxiv情報

著者 James R. Han,Hugues Thomas,Jian Zhang,Nicholas Rhinehart,Timothy D. Barfoot
発行日 2025-02-14 02:14:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | DR-MPC: Deep Residual Model Predictive Control for Real-world Social Navigation はコメントを受け付けていません

SELP: Generating Safe and Efficient Task Plans for Robot Agents with Large Language Models

要約

ロボットエージェントの自然言語(NL)コマンドの理解と実行を強化する大規模な言語モデル(LLMS)の大幅な進歩にもかかわらず、特に複雑なコマンドや長期タスクの場合、エージェントがユーザー指定の制約に従うことを保証します。
この課題に対処するために、3つの重要な洞察、同等の投票、制約付きデコード、およびドメイン固有の微調整を提示します。これにより、複雑なタスクの処理におけるLLMプランナーの機能が大幅に向上します。
等価投票は、NLコマンドから複数の線形時間論的論理(LTL)式を生成およびサンプリングし、同等のLTL式をグループ化し、最終LTL式として式の多数型グループを選択することにより、一貫性を保証します。
制約付きデコードは、生成されたLTL式を使用して、計画の自己回帰推論を実施し、生成された計画がLTLに適合するようにします。
ドメイン固有の微調整は、LLMをカスタマイズして、特定のタスクドメイン内で安全で効率的な計画を作成します。
当社のアプローチであるSafe Efficive LLM Planner(SELP)は、これらの洞察を組み合わせてLLMプランナーを作成して、自信を持ってユーザーコマンドを順守する計画を生成します。
ドローンナビゲーションやロボット操作など、さまざまなロボットエージェントとタスクにわたるSELPの有効性と一般化可能性を実証します。
ドローンナビゲーションタスクの場合、SELPは、最先端のプランナーを安全レートで10.8%(つまり、NLコマンドに準拠した仕上げタスク)よりも19.8%上回ります。
ロボット操作タスクの場合、SELPは安全レートの20.4%の改善を達成します。
NL-to-LTLおよびロボットタスク計画を評価するためのデータセットは、github.com/lt-asset/selpでリリースされます。

要約(オリジナル)

Despite significant advancements in large language models (LLMs) that enhance robot agents’ understanding and execution of natural language (NL) commands, ensuring the agents adhere to user-specified constraints remains challenging, particularly for complex commands and long-horizon tasks. To address this challenge, we present three key insights, equivalence voting, constrained decoding, and domain-specific fine-tuning, which significantly enhance LLM planners’ capability in handling complex tasks. Equivalence voting ensures consistency by generating and sampling multiple Linear Temporal Logic (LTL) formulas from NL commands, grouping equivalent LTL formulas, and selecting the majority group of formulas as the final LTL formula. Constrained decoding then uses the generated LTL formula to enforce the autoregressive inference of plans, ensuring the generated plans conform to the LTL. Domain-specific fine-tuning customizes LLMs to produce safe and efficient plans within specific task domains. Our approach, Safe Efficient LLM Planner (SELP), combines these insights to create LLM planners to generate plans adhering to user commands with high confidence. We demonstrate the effectiveness and generalizability of SELP across different robot agents and tasks, including drone navigation and robot manipulation. For drone navigation tasks, SELP outperforms state-of-the-art planners by 10.8% in safety rate (i.e., finishing tasks conforming to NL commands) and by 19.8% in plan efficiency. For robot manipulation tasks, SELP achieves 20.4% improvement in safety rate. Our datasets for evaluating NL-to-LTL and robot task planning will be released in github.com/lt-asset/selp.

arxiv情報

著者 Yi Wu,Zikang Xiong,Yiran Hu,Shreyash S. Iyengar,Nan Jiang,Aniket Bera,Lin Tan,Suresh Jagannathan
発行日 2025-02-14 02:40:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.FL, cs.RO | SELP: Generating Safe and Efficient Task Plans for Robot Agents with Large Language Models はコメントを受け付けていません

Line Balancing in the Modern Garment Industry

要約

この記事では、衣服近代化のための無駄のない方法論により、インテリジェントハンガーシステムとハンガーラインがステッチプロセスに及ぼす重要な影響に焦点を当てた、現代の衣服業界内のラインバランスに関する応用研究を紹介します。
インテリジェントハンガーシステムとハンガーラインがステッチプロセスに大きな影響を与えることに焦点を当てた、現代の衣服業界でのラインバランスの適用を探ります。
それは、衣服の近代化のための無駄のない方法論の原則と一致します。
ラインバランシングテクノロジーの実装がなければ、ハンガーシステムを使用した衣服の製造プロセスは出力レートを改善することはできません。
ケーススタディは、簡単な実用的なセットアップでインテリジェントなラインバランスを実装することで、デジタル化システムとオートマトンと組み合わせた無駄のない実践を促進することを示しています。
このアプローチは、出力を強化し、進行中の蓄積された作業を減らす方法を示しています。

要約(オリジナル)

This article presents applied research on line balancing within the modern garment industry, focusing on the significant impact of intelligent hanger systems and hanger lines on the stitching process, by Lean Methodology for garment modernization. It explores the application of line balancing in the modern garment industry, focusing on the significant impact of intelligent hanger systems and hanger lines on the stitching process. It aligns with Lean Methodology principles for garment modernization. Without the implementation of line balancing technology, the garment manufacturing process using hanger systems cannot improve output rates. The case study demonstrates that implementing intelligent line balancing in a straightforward practical setup facilitates lean practices combined with a digitalization system and automaton. This approach illustrates how to enhance output and reduce accumulated work in progress.

arxiv情報

著者 Ray Wai Man Kong,Ding Ning,Theodore Ho Tin Kong
発行日 2025-02-14 02:41:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Line Balancing in the Modern Garment Industry はコメントを受け付けていません