AdaFold: Adapting Folding Trajectories of Cloths via Feedback-loop Manipulation

要約

折り曲げ軌道を最適化するためのモデルベースのフィードバック ループ フレームワークである AdaFold を紹介します。
AdaFold は、RGB-D 画像から布の粒子ベースの表現を抽出し、その表現をモデルの予測制御にフィードバックして、タイム ステップごとに折り畳みの軌道を再計画します。
フィードバック ループ操作を可能にする AdaFold の重要なコンポーネントは、幾何学的特徴から抽出されたセマンティック記述子の使用です。
これらの記述子は、布の粒子表現を強化して、折り方が異なる布のあいまいな点群を区別します。
私たちの実験は、AdaFold がさまざまな物理的特性を持つ布の折り畳み軌跡を適応させ、模擬トレーニングから現実世界での実行まで一般化できることを実証しています。

要約(オリジナル)

We present AdaFold, a model-based feedback-loop framework for optimizing folding trajectories. AdaFold extracts a particle-based representation of cloth from RGB-D images and feeds back the representation to a model predictive control to replan folding trajectory at every time step. A key component of AdaFold that enables feedback-loop manipulation is the use of semantic descriptors extracted from geometric features. These descriptors enhance the particle representation of the cloth to distinguish between ambiguous point clouds of differently folded cloths. Our experiments demonstrate AdaFold’s ability to adapt folding trajectories of cloths with varying physical properties and generalize from simulated training to real-world execution.

arxiv情報

著者 Alberta Longhini,Michael C. Welle,Zackory Erickson,Danica Kragic
発行日 2024-12-20 08:03:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Future Aspects in Human Action Recognition: Exploring Emerging Techniques and Ethical Influences

要約

視覚ベースの人間の行動認識は、監視システム、スポーツ分析、医療支援技術、人間とロボットの相互作用フレームワークなど、さまざまな応用分野で見られ、ビデオ内の個人の活動の識別と分類に関係します。
通常、アクションは連続した画像のシーケンス上で発生するため、追加の複雑さのレイヤーを導入する時間分析が含まれるため、特に困難です。
ただし、複数のアプローチで時間解析を処理しようとしていますが、計算コストと適応性の欠如により、依然として困難が伴います。
したがって、次世代ハードウェア センサーによって提供される、連続画像間の遷移情報を含むさまざまな種類の視覚データは、ロボット工学コミュニティが人間の動作認識の問題に取り組む指針となるでしょう。
一方で、研究者が新しい人工知能モデルをトレーニングするために採用できる静止画像データセットは大量にありますが、人間の活動を表すビデオの機能は限られており、たとえばデータセットが小さくバランスが取れていない、または複数のソースから制御なしに選択されているなどです。
この目的を達成するために、データ作成プロセス全体でラベル付けが実行されるため、新しくリアルな合成ビデオを生成することが可能になります。また、強化学習技術により、大幅なデータセットへの依存を回避できます。
同時に、新技術に対する疑念や懸念がすでに存在するため、人的要因の関与は研究コミュニティに倫理的な問題を引き起こします。

要約(オリジナル)

Visual-based human action recognition can be found in various application fields, e.g., surveillance systems, sports analytics, medical assistive technologies, or human-robot interaction frameworks, and it concerns the identification and classification of individuals’ activities within a video. Since actions typically occur over a sequence of consecutive images, it is particularly challenging due to the inclusion of temporal analysis, which introduces an extra layer of complexity. However, although multiple approaches try to handle temporal analysis, there are still difficulties because of their computational cost and lack of adaptability. Therefore, different types of vision data, containing transition information between consecutive images, provided by next-generation hardware sensors will guide the robotics community in tackling the problem of human action recognition. On the other hand, while there is a plethora of still-image datasets, that researchers can adopt to train new artificial intelligence models, videos representing human activities are of limited capabilities, e.g., small and unbalanced datasets or selected without control from multiple sources. To this end, generating new and realistic synthetic videos is possible since labeling is performed throughout the data creation process, while reinforcement learning techniques can permit the avoidance of considerable dataset dependence. At the same time, human factors’ involvement raises ethical issues for the research community, as doubts and concerns about new technologies already exist.

arxiv情報

著者 Antonios Gasteratos,Stavros N. Moutsis,Konstantinos A. Tsintotas,Yiannis Aloimonos
発行日 2024-12-20 08:19:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.ET, cs.RO | コメントする

A Plug-and-Play Fully On-the-Job Real-Time Reinforcement Learning Algorithm for a Direct-Drive Tandem-Wing Experiment Platforms Under Multiple Random Operating Conditions

要約

このような生体模倣システムのタンデム翼によって生成される非線形で不安定な空気力学的干渉は、特に複数のランダムな動作条件下で、動作制御に大きな課題をもたらします。
これらの課題に対処するために、Concerto Reinforcement Learning Extension (CRL2E) アルゴリズムが開発されました。
このプラグアンドプレイの完全オンザジョブのリアルタイム強化学習アルゴリズムには、摂動モジュールを備えた新しい物理学にヒントを得たルールベースのポリシー コンポーザー戦略と、リアルタイム制御用に最適化された軽量ネットワークが組み込まれています。
モジュール設計の性能と合理性を検証するために、6 つの困難な動作条件下で実験が実施され、7 つの異なるアルゴリズムが比較されました。
結果は、CRL2E アルゴリズムが最初の 500 ステップ内で安全で安定したトレーニングを達成し、ソフト アクター クリティカル、近接ポリシー最適化、ツイン遅延ディープ決定論的ポリシー勾配アルゴリズムと比較して追跡精度が 14 ~ 66 倍向上することを示しています。
さらに、CRL2E はさまざまなランダムな動作条件下でのパフォーマンスを大幅に向上させ、Concerto Reinforcement Learning (CRL) アルゴリズムと比較して追跡精度が 8.3% ~ 60.4% 向上しました。
CRL2E の収束速度は、Composer Perturbation のみを使用した CRL アルゴリズムより 36.11% ~ 57.64% 高速であり、Composer Perturbation と Time-Interleaved Capability Perturbation の両方を導入した場合、特に以下の条件で CRL アルゴリズムより 43.52% ~ 65.85% 高速になります。
標準の CRL は収束に苦労します。
ハードウェア テストでは、最適化された軽量ネットワーク構造が重み負荷と平均推論時間に優れ、リアルタイム制御要件を満たしていることが示されています。

要約(オリジナル)

The nonlinear and unstable aerodynamic interference generated by the tandem wings of such biomimetic systems poses substantial challenges for motion control, especially under multiple random operating conditions. To address these challenges, the Concerto Reinforcement Learning Extension (CRL2E) algorithm has been developed. This plug-and-play, fully on-the-job, real-time reinforcement learning algorithm incorporates a novel Physics-Inspired Rule-Based Policy Composer Strategy with a Perturbation Module alongside a lightweight network optimized for real-time control. To validate the performance and the rationality of the module design, experiments were conducted under six challenging operating conditions, comparing seven different algorithms. The results demonstrate that the CRL2E algorithm achieves safe and stable training within the first 500 steps, improving tracking accuracy by 14 to 66 times compared to the Soft Actor-Critic, Proximal Policy Optimization, and Twin Delayed Deep Deterministic Policy Gradient algorithms. Additionally, CRL2E significantly enhances performance under various random operating conditions, with improvements in tracking accuracy ranging from 8.3% to 60.4% compared to the Concerto Reinforcement Learning (CRL) algorithm. The convergence speed of CRL2E is 36.11% to 57.64% faster than the CRL algorithm with only the Composer Perturbation and 43.52% to 65.85% faster than the CRL algorithm when both the Composer Perturbation and Time-Interleaved Capability Perturbation are introduced, especially in conditions where the standard CRL struggles to converge. Hardware tests indicate that the optimized lightweight network structure excels in weight loading and average inference time, meeting real-time control requirements.

arxiv情報

著者 Zhang Minghao,Song Bifeng,Yang Xiaojun,Wang Liang
発行日 2024-12-20 09:39:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

FORCE: Physics-aware Human-object Interaction

要約

人間と物体の間の相互作用は、物体の姿勢や形状だけでなく、物体の質量や表面摩擦などの物理的属性にも影響されます。
これらは、多様性とリアリズムに不可欠な重要な動きのニュアンスを導入します。
最近の人間とオブジェクトのインタラクション手法は進歩しているにもかかわらず、この側面は見落とされてきました。
人間の微妙な動きを生成するには 2 つの課題があります。
まず、物理的属性と非物理的属性の両方から得られるマルチモーダルな人間と物体の情報から学習することは自明ではありません。
第二に、さまざまな物理的特性を持つ物体と人間の微妙な相互作用を捉えたデータセットが存在しないため、モデル開発が妨げられています。
この研究では、物理的属性をモデル化することで、人間とオブジェクトの多様で微妙な相互作用を統合するアプローチである FORCE モデルを導入することで、このギャップに対処しています。
私たちの重要な洞察は、人間の動きは、人間が及ぼす力と知覚される抵抗との相互関係によって決定されるということです。
新しい直観的な物理エンコードに導かれたこのモデルは、人間の力と抵抗の間の相互作用を捉えています。
実験では、人力を組み込むことで複数クラスの動作の学習が容易になることも実証されています。
私たちのモデルに付随して、さまざまな抵抗との相互作用による多様で異なるスタイルの動きを特徴とするデータセットを提供します。

要約(オリジナル)

Interactions between human and objects are influenced not only by the object’s pose and shape, but also by physical attributes such as object mass and surface friction. They introduce important motion nuances that are essential for diversity and realism. Despite advancements in recent human-object interaction methods, this aspect has been overlooked. Generating nuanced human motion presents two challenges. First, it is non-trivial to learn from multi-modal human and object information derived from both the physical and non-physical attributes. Second, there exists no dataset capturing nuanced human interactions with objects of varying physical properties, hampering model development. This work addresses the gap by introducing the FORCE model, an approach for synthesizing diverse, nuanced human-object interactions by modeling physical attributes. Our key insight is that human motion is dictated by the interrelation between the force exerted by the human and the perceived resistance. Guided by a novel intuitive physics encoding, the model captures the interplay between human force and resistance. Experiments also demonstrate incorporating human force facilitates learning multi-class motion. Accompanying our model, we contribute a dataset, which features diverse, different-styled motion through interactions with varying resistances.

arxiv情報

著者 Xiaohan Zhang,Bharat Lal Bhatnagar,Sebastian Starke,Ilya Petrov,Vladimir Guzov,Helisa Dhamo,Eduardo Pérez-Pellitero,Gerard Pons-Moll
発行日 2024-12-20 09:56:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Probabilistic Latent Variable Modeling for Dynamic Friction Identification and Estimation

要約

ロボット工学における動的モデルの正確な同定は、制御設計、摩擦補償、出力トルク推定などをサポートするために不可欠です。根底にある摩擦力学に影響を与える多数の物理現象を考慮すると、ロボット関節の摩擦モデルの同定には長年の課題が残されており、その結果、
特に非線形特性とヒステリシス挙動。
これらの現象は、物理的なアナロジーだけを使用してモデル化し、正確に把握することが困難であることが証明されています。
これにより、研究者は物理ベースのモデルからデータ駆動型モデルに移行するようになりました。
現時点では、これらの方法は、高速および低速の動作と頻繁な方向反転を特徴とする典型的な産業用ロボットの展開に効果的に一般化する能力にはまだ限界があります。
経験的な観察により動摩擦モデルの使用が促進されますが、確立するのは依然として特に困難です。
現在の制限に対処するために、潜在的な動的状態を使用してロボット関節の未確認のダイナミクスを説明することを提案します。
次に、摩擦モデルは、ロボットの動的状態と、潜在状態でエンコードされた追加情報の両方を利用して、摩擦トルクを評価することができる。
この確率的かつ部分的に教師なしの識別問題を、標準的な確率的表現学習問題としてキャストします。
この研究では、摩擦モデルと潜在状態ダイナミクスの両方がニューラル ネットワークとしてパラメータ化され、従来の集中パラメータ動的ロボット モデルに統合されています。
完全なダイナミクス モデルは、ロボット ジョイントのノイズの多いエンコーダー測定から直接学習されます。
期待最大化 (EM) アルゴリズムを使用して、モデル パラメーターの最尤推定 (MLE) を見つけます。
提案された方法の有効性は、Kuka KR6 R700 をテスト プラットフォームとして使用し、ベースライン方法と比較した開ループ予測精度の観点から検証されます。

要約(オリジナル)

Precise identification of dynamic models in robotics is essential to support control design, friction compensation, output torque estimation, etc. A longstanding challenge remains in the identification of friction models for robotic joints, given the numerous physical phenomena affecting the underlying friction dynamics which result into nonlinear characteristics and hysteresis behaviour in particular. These phenomena proof difficult to be modelled and captured accurately using physical analogies alone. This has motivated researchers to shift from physics-based to data-driven models. Currently, these methods are still limited in their ability to generalize effectively to typical industrial robot deployement, characterized by high- and low-velocity operations and frequent direction reversals. Empirical observations motivate the use of dynamic friction models but these remain particulary challenging to establish. To address the current limitations, we propose to account for unidentified dynamics in the robot joints using latent dynamic states. The friction model may then utilize both the dynamic robot state and additional information encoded in the latent state to evaluate the friction torque. We cast this stochastic and partially unsupervised identification problem as a standard probabilistic representation learning problem. In this work both the friction model and latent state dynamics are parametrized as neural networks and integrated in the conventional lumped parameter dynamic robot model. The complete dynamics model is directly learned from the noisy encoder measurements in the robot joints. We use the Expectation-Maximisation (EM) algorithm to find a Maximum Likelihood Estimate (MLE) of the model parameters. The effectiveness of the proposed method is validated in terms of open-loop prediction accuracy in comparison with baseline methods, using the Kuka KR6 R700 as a test platform.

arxiv情報

著者 Victor Vantilborgh,Sander De Witte,Frederik Ostyn,Tom Lefebvre,Guillaume Crevecoeur
発行日 2024-12-20 10:16:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | コメントする

Foresight Social-aware Reinforcement Learning for Robot Navigation

要約

ロボットが衝突を回避しながらナビゲーション タスクを処理する場合、混雑した複雑な環境では、安定した均質な環境ほどパフォーマンスは向上しません。
これにより、成功率が低くなり、効率が低下することがよくあります。
したがって、我々は、移動ロボットが衝突のないナビゲーションを実現するための新しい Foresight 社会認識強化学習 (FSRL) フレームワークを提案します。
以前の学習ベースの方法と比較して、私たちのアプローチは先見の明があります。
当面の衝突を回避するために現在の人間とロボットの相互作用を考慮するだけでなく、将来的に距離を保つために今後の社会的相互作用も推定します。
さらに、ナビゲーション時間を大幅に短縮する効率の制約が私たちのアプローチに導入されています。
比較実験は、より現実的で困難な模擬環境下で提案手法の有効性と効率を検証するために実行されます。

要約(オリジナル)

When robots handle navigation tasks while avoiding collisions, they perform in crowded and complex environments not as good as in stable and homogeneous environments. This often results in a low success rate and poor efficiency. Therefore, we propose a novel Foresight Social-aware Reinforcement Learning (FSRL) framework for mobile robots to achieve collision-free navigation. Compared to previous learning-based methods, our approach is foresighted. It not only considers the current human-robot interaction to avoid an immediate collision, but also estimates upcoming social interactions to still keep distance in the future. Furthermore, an efficiency constraint is introduced in our approach that significantly reduces navigation time. Comparative experiments are performed to verify the effectiveness and efficiency of our proposed method under more realistic and challenging simulated environments.

arxiv情報

著者 Yanying Zhou,Shijie Li,Jochen Garcke
発行日 2024-12-20 11:37:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Traffic-Rule-Compliant Trajectory Repair via Satisfiability Modulo Theories and Reachability Analysis

要約

多数のルールを同時に考慮する必要があるため、自動運転車にとって交通ルールの遵守は困難です。
計画された軌道が交通規則に違反した場合、新しい軌道を最初から再計画するのが一般的です。
代わりに、計算時間を節約するための軌道修復手法を提案します。
充足可能性モジュロ理論とセットベースの到達可能性分析を組み合わせることで、初期軌道を修復できるかどうか、またどのような方法で修復できるかを判断します。
高忠実度シミュレーターと現実世界での実験により、さまざまなシナリオにおける私たちの提案されたアプローチの利点が実証されています。
ルールが複雑な複雑な環境であっても、ルール違反の軌道を効率的かつ確実に修復し、自動運転車両がリアルタイムで法的に安全な運行を迅速に再開できるようにします。

要約(オリジナル)

Complying with traffic rules is challenging for automated vehicles, as numerous rules need to be considered simultaneously. If a planned trajectory violates traffic rules, it is common to replan a new trajectory from scratch. We instead propose a trajectory repair technique to save computation time. By coupling satisfiability modulo theories with set-based reachability analysis, we determine if and in what manner the initial trajectory can be repaired. Experiments in high-fidelity simulators and in the real world demonstrate the benefits of our proposed approach in various scenarios. Even in complex environments with intricate rules, we efficiently and reliably repair rule-violating trajectories, enabling automated vehicles to swiftly resume legally safe operation in real-time.

arxiv情報

著者 Yuanfei Lin,Zekun Xing,Xuyuan Han,Matthias Althoff
発行日 2024-12-20 12:26:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

Co-Optimization of Tool Orientations, Kinematic Redundancy, and Waypoint Timing for Robot-Assisted Manufacturing

要約

本稿では、ロボット支援製造の品質を向上させるための、同時かつスケーラブルな軌道最適化手法を紹介します。
私たちの方法では、多数のウェイポイントを含む入力ツールパス上でツールの方向、運動学的冗長性、ウェイポイントのタイミングを同時に最適化し、製造上の制約を組み込みながら運動学的滑らかさを向上させます。
それとは異なり、既存の方法では常にそれらを分離した方法で決定します。
ツールパス上の多数のウェイポイントに対処するために、コア外の方法で軌道を最適化する分解ベースの数値スキームを提案します。これは効率を向上させるために並行して実行することもできます。
ロボット支援積層造形の例で私たちの方法のパフォーマンスを実証するために、シミュレーションと物理実験が実施されました。

要約(オリジナル)

In this paper, we present a concurrent and scalable trajectory optimization method to improve the quality of robot-assisted manufacturing. Our method simultaneously optimizes tool orientations, kinematic redundancy, and waypoint timing on input toolpaths with large numbers of waypoints to improve kinematic smoothness while incorporating manufacturing constraints. Differently, existing methods always determine them in a decoupled manner. To deal with the large number of waypoints on a toolpath, we propose a decomposition-based numerical scheme to optimize the trajectory in an out-of-core manner, which can also run in parallel to improve the efficiency. Simulations and physical experiments have been conducted to demonstrate the performance of our method in examples of robot-assisted additive manufacturing.

arxiv情報

著者 Yongxue Chen,Tianyu Zhang,Yuming Huang,Tao Liu,Charlie C. L. Wang
発行日 2024-12-20 13:21:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Feedback Regulated Opto-Mechanical Soft Robotic Actuators

要約

自然生物は、環境の刺激を感覚フィードバックに変換して身体を調節し、積極的な適応性を実現します。
しかし、合成材料システムでこのようなフィードバック制御メカニズムを実現することは依然として大きな課題です。
応答性材料で複雑なフィードバック機構を実現すると、複雑な電子機器を使用せずに自律的でインテリジェントな構造と作動への道が開かれると考えられています。
生体システムに触発されて、我々は光応答性材料でそのようなフィードバック ループを設計および構築するための一般原理を報告します。
具体的には、プログラムされたフィードバックを光機械的応答性に組み込むバッフルアクチュエーター機構を設計します。
入射光線に対してバッフルの位置を指定するだけで、正および負のフィードバックがプログラムされます。
我々は、光を曲げるストリップからスイッチャーへの変換を実証します。このスイッチャーでは、正のフィードバックの下で光の強度がエネルギー障壁を決定し、多重安定形状モーフィングを実現します。
負のフィードバックとそれに関連する恒常性を利用して、2 つのソフト ロボット、つまり運動ロボットと水泳ロボットを実証します。
さらに、光応答性材料におけるフィードバックの遍在性を明らかにし、自己制御ロボットの問題について新たな洞察を提供します。

要約(オリジナル)

Natural organisms can convert environmental stimuli into sensory feedback to regulate their body and realize active adaptivity. However, realizing such a feedback-regulation mechanism in synthetic material systems remains a grand challenge. It is believed that achieving complex feedback mechanisms in responsive materials will pave the way toward autonomous, intelligent structure and actuation without complex electronics. Inspired by living systems, we report a general principle to design and construct such feedback loops in light-responsive materials. Specifically, we design a baffle-actuator mechanism to incorporate programmed feedback into the opto-mechanical responsiveness. By simply addressing the baffle position with respect to the incident light beam, positive and negative feedback are programmed. We demonstrate the transformation of a light-bending strip into a switcher, where the intensity of light determines the energy barrier under positive feedback, realizing multi-stable shape-morphing. By leveraging the negative feedback and associated homeostasis, we demonstrate two soft robots, i.e., a locomotor and a swimmer. Furthermore, we unveil the ubiquity of feedback in light-responsive materials, which provides new insight into self-regulated robotic matters.

arxiv情報

著者 Jianfeng Yang,Haotian Pi,Zixuan Deng,Hongshuang Guo,Wan Shou,Hang Zhang,Hao Zeng
発行日 2024-12-20 15:37:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.RO | コメントする

BMP: Bridging the Gap between B-Spline and Movement Primitives

要約

この作業では、モーション表現に B スプラインを活用する新しい移動プリミティブ (MP) バリアントである B スプライン移動プリミティブ (BMP) が導入されています。
B スプラインは、境界条件を満たしながら、つまり、指定された所望の位置を所望の速度で通過するという条件を満たしながら、わずか数個の制御点で複雑で滑らかな軌道を生成できるため、動作計画においてよく知られた概念です。
ただし、B スプラインの現在の使用法は、軌道分布の高次の統計を無視する傾向があるため、軌道分布のモデリングが不可欠な模倣学習 (IL) や強化学習 (RL) での使用が制限されています。
対照的に、MP は軌道の尤度や相関関係を捕捉する能力があるため、IL および RL で一般的に使用されます。
ただし、MP は境界条件を満たす能力に制約を受けており、通常、速度制約を満たすために学習目標に追加の項が必要です。
B-スプラインを基底関数と重みパラメータで表される MP として再定式化することにより、BMP は両方のアプローチの長所を組み合わせ、B-スプラインが境界条件を満たす能力を維持しながら高次の統計を取得できるようにします。
IL と RL の実験結果は、BMP がロボット学習における B スプラインの適用範囲を広げ、既存の MP バリアントと比較してより優れた表現力を提供することを示しています。

要約(オリジナル)

This work introduces B-spline Movement Primitives (BMPs), a new Movement Primitive (MP) variant that leverages B-splines for motion representation. B-splines are a well-known concept in motion planning due to their ability to generate complex, smooth trajectories with only a few control points while satisfying boundary conditions, i.e., passing through a specified desired position with desired velocity. However, current usages of B-splines tend to ignore the higher-order statistics in trajectory distributions, which limits their usage in imitation learning (IL) and reinforcement learning (RL), where modeling trajectory distribution is essential. In contrast, MPs are commonly used in IL and RL for their capacity to capture trajectory likelihoods and correlations. However, MPs are constrained by their abilities to satisfy boundary conditions and usually need extra terms in learning objectives to satisfy velocity constraints. By reformulating B-splines as MPs, represented through basis functions and weight parameters, BMPs combine the strengths of both approaches, allowing B-splines to capture higher-order statistics while retaining their ability to satisfy boundary conditions. Empirical results in IL and RL demonstrate that BMPs broaden the applicability of B-splines in robot learning and offer greater expressiveness compared to existing MP variants.

arxiv情報

著者 Weiran Liao,Ge Li,Hongyi Zhou,Rudolf Lioutikov,Gerhard Neumann
発行日 2024-12-20 16:29:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする