pFedLVM: A Large Vision Model (LVM)-Driven and Latent Feature-Based Personalized Federated Learning Framework in Autonomous Driving

要約

ディープラーニングに基づく自律走行(AD)モデルは、常に領域がシフトする環境におけるデータの不均一性により、しばしば汎化不良を示す。統合学習(FL)はADモデル(FedADシステムとして知られている)の汎化を改善することができるが、従来のモデルは、蓄積された学習データの量が徐々に増加するにつれて、アンダーフィッティングに悩まされることが多い。この問題に対処するために、従来の小さなモデルの代わりに、FedADにラージビジョンモデル(LVM)を採用することは、膨大なデータから表現をより良く学習するための実行可能な選択肢である。(II)各車両にLVMを配備するためのコンピューティングリソースの不足。(III)LVMが共有特徴に焦点を当て、局所的な車両特性を見落とすことによる性能低下。これらの課題を克服するために、我々はpFedLVMを提案する。pFedLVMは、LVM駆動型、潜在特徴ベースのパーソナライズされた統合学習フレームワークである。このアプローチでは、LVMは中央サーバーにのみ配置され、各車両の計算負担を効果的に軽減する。さらに、中央サーバと車両間のやり取りは、LVMパラメータではなく学習された特徴量であるため、通信オーバーヘッドが大幅に削減される。さらに、全参加車両の共有特徴量と各車両の個別特徴量の両方を利用することで、パーソナライズされた学習メカニズムを確立している。これにより、各車両のモデルは、そのパーソナライズされた特性を維持しながら、他の車両から特徴を学習することができ、一般的なFLで学習されたグローバル共有モデルを凌駕する。広範な実験により、pFedLVMが既存の最先端アプローチを凌駕することが実証されている。

要約(オリジナル)

Deep learning-based Autonomous Driving (AD) models often exhibit poor generalization due to data heterogeneity in an ever domain-shifting environment. While Federated Learning (FL) could improve the generalization of an AD model (known as FedAD system), conventional models often struggle with under-fitting as the amount of accumulated training data progressively increases. To address this issue, instead of conventional small models, employing Large Vision Models (LVMs) in FedAD is a viable option for better learning of representations from a vast volume of data. However, implementing LVMs in FedAD introduces three challenges: (I) the extremely high communication overheads associated with transmitting LVMs between participating vehicles and a central server; (II) lack of computing resource to deploy LVMs on each vehicle; (III) the performance drop due to LVM focusing on shared features but overlooking local vehicle characteristics. To overcome these challenges, we propose pFedLVM, a LVM-Driven, Latent Feature-Based Personalized Federated Learning framework. In this approach, the LVM is deployed only on central server, which effectively alleviates the computational burden on individual vehicles. Furthermore, the exchange between central server and vehicles are the learned features rather than the LVM parameters, which significantly reduces communication overhead. In addition, we utilize both shared features from all participating vehicles and individual characteristics from each vehicle to establish a personalized learning mechanism. This enables each vehicle’s model to learn features from others while preserving its personalized characteristics, thereby outperforming globally shared models trained in general FL. Extensive experiments demonstrate that pFedLVM outperforms the existing state-of-the-art approaches.

arxiv情報

著者 Wei-Bin Kou,Qingfeng Lin,Ming Tang,Sheng Xu,Rongguang Ye,Yang Leng,Shuai Wang,Guofa Li,Zhenyu Chen,Guangxu Zhu,Yik-Chung Wu
発行日 2025-03-03 04:55:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.DC, cs.RO | pFedLVM: A Large Vision Model (LVM)-Driven and Latent Feature-Based Personalized Federated Learning Framework in Autonomous Driving はコメントを受け付けていません

A Data-Driven Aggressive Autonomous Racing Framework Utilizing Local Trajectory Planning with Velocity Prediction

要約

自律走行の発展により、自律レースに関する研究が活発化している。しかし,既存の局所軌道計画法では,鋭角コーナーのあるレーストラックにおいて最適な速度プロファイルを持つ軌道を計画することが困難であり,自律走行レースのパフォーマンスを低下させる.この問題を解決するために、我々はモデル予測輪郭制御に基づく速度予測(Velocity Prediction based on Model Predictive Contouring Control:VPMPCC)を統合した局所軌道計画法を提案する。VPMPCCの最適なパラメータは、提案する新しいOFR(Objective Function adapted to Racing)に基づくベイズ最適化(Bayesian Optimization)によって学習される。具体的には、VPMPCCはレーストラックを参照速度プロファイルとして符号化し、最適化問題に組み込むことで速度予測を実現する。この方法は、特に曲率の大きいコーナーでの局所的な軌跡の速度プロファイルを最適化します。提案するOFRは、レース性能と車両の安全性をバランスさせ、安全で効率的なBOトレーニングを実現します。シミュレーションの結果、OFRに基づくBOの訓練反復回数は、最新の手法と比較して42.86%減少しました。そして、シミュレーションで訓練された最適なパラメータは、再トレーニングを行うことなく、実際のF1TENTH車両に適用されます。大きな鋭角コーナーを特徴とする特注のレーストラックで長時間レースを行った場合、VPMPCCの平均投影速度は車両のハンドリング限界の93.18%に達した。公開されたコードは、https://github.com/zhouhengli/VPMPCC。

要約(オリジナル)

The development of autonomous driving has boosted the research on autonomous racing. However, existing local trajectory planning methods have difficulty planning trajectories with optimal velocity profiles at racetracks with sharp corners, thus weakening the performance of autonomous racing. To address this problem, we propose a local trajectory planning method that integrates Velocity Prediction based on Model Predictive Contouring Control (VPMPCC). The optimal parameters of VPMPCC are learned through Bayesian Optimization (BO) based on a proposed novel Objective Function adapted to Racing (OFR). Specifically, VPMPCC achieves velocity prediction by encoding the racetrack as a reference velocity profile and incorporating it into the optimization problem. This method optimizes the velocity profile of local trajectories, especially at corners with significant curvature. The proposed OFR balances racing performance with vehicle safety, ensuring safe and efficient BO training. In the simulation, the number of training iterations for OFR-based BO is reduced by 42.86% compared to the state-of-the-art method. The optimal simulation-trained parameters are then applied to a real-world F1TENTH vehicle without retraining. During prolonged racing on a custom-built racetrack featuring significant sharp corners, the mean projected velocity of VPMPCC reaches 93.18% of the vehicle’s handling limits. The released code is available at https://github.com/zhouhengli/VPMPCC.

arxiv情報

著者 Zhouheng Li,Bei Zhou,Cheng Hu,Lei Xie,Hongye Su
発行日 2025-03-03 07:43:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, cs.SY, eess.SY | A Data-Driven Aggressive Autonomous Racing Framework Utilizing Local Trajectory Planning with Velocity Prediction はコメントを受け付けていません

Walking with Terrain Reconstruction: Learning to Traverse Risky Sparse Footholds

要約

足場がまばらで危険な地形を横断することは、脚式ロボットにとって大きな課題であり、安全な場所に正確に足を配置する必要がある。包括的な外界情報を取得するために、先行研究ではモーションキャプチャシステムやマッピング技術を用いてロコモーションポリシー用のハイトマップを生成している。しかし、これらのアプローチは特殊なパイプラインを必要とし、多くの場合、さらなるノイズをもたらします。しかし、これらの手法では、モーションキャプチャやマッピング技術に特化したパイプラインが必要であり、また、ノイズが混入しやすいという問題がある。本論文では、固有感覚と深度画像のみに依存するエンドツーエンドの強化学習が、高いスパース性とランダム性を持つ危険な地形を横断できることを実証する。本手法は、明確な特徴と、視覚的特徴抽出と動き生成の仲介役となるハイトマップからの十分な情報の利点を活用し、局所的な地形再構成を導入する。これにより、重要な地形情報を効果的に表現し、記憶することが可能となる。提案するフレームワークを低価格の4足歩行ロボットに展開し、様々な困難な地形での機敏で適応的なロコモーションを実現し、実世界のシナリオにおける卓越した性能を示す。ビデオ:youtu.be/Rj9v5EZsn-M.

要約(オリジナル)

Traversing risky terrains with sparse footholds presents significant challenges for legged robots, requiring precise foot placement in safe areas. To acquire comprehensive exteroceptive information, prior studies have employed motion capture systems or mapping techniques to generate heightmap for locomotion policy. However, these approaches require specialized pipelines and often introduce additional noise. While depth images from egocentric vision systems are cost-effective, their limited field of view and sparse information hinder the integration of terrain structure details into implicit features, which are essential for generating precise actions. In this paper, we demonstrate that end-to-end reinforcement learning relying solely on proprioception and depth images is capable of traversing risky terrains with high sparsity and randomness. Our method introduces local terrain reconstruction, leveraging the benefits of clear features and sufficient information from the heightmap, which serves as an intermediary for visual feature extraction and motion generation. This allows the policy to effectively represent and memorize critical terrain information. We deploy the proposed framework on a low-cost quadrupedal robot, achieving agile and adaptive locomotion across various challenging terrains and showcasing outstanding performance in real-world scenarios. Video at: youtu.be/Rj9v5EZsn-M.

arxiv情報

著者 Ruiqi Yu,Qianshi Wang,Yizhen Wang,Zhicheng Wang,Jun Wu,Qiuguo Zhu
発行日 2025-03-03 08:59:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Walking with Terrain Reconstruction: Learning to Traverse Risky Sparse Footholds はコメントを受け付けていません

ALPINE: a climbing robot for operations in mountain environments

要約

山の斜面は、不安定な岩や危険な植生の除去、安全ネットの展開など、人間が困難で危険な作業を行う必要がある過酷な環境の好例である。クライミングロボットは、人間の介入を代替することができます。既存の文献にある様々な解決策は、要求される難易度(ナビゲーション、重いペイロード、タスク実行の柔軟性)に対してタスクに対応していない。本論文では、このギャップを埋めることができるロボットプラットフォームを提案する。我々のソリューションは、ロープにぶら下がり、開閉可能な脚を使って山の壁から飛び降りるロボットをベースにしている。運動計画と制御のために開発されたアルゴリズムとともに、我々の機械的ソリューションのパッケージは、不規則で急な斜面での迅速なナビゲーション、大きな自然の障壁の克服や回避の可能性、重いペイロードの運搬や複雑なタスクの実行能力を提供する。本論文では、設計とアルゴリズムの主な選択について詳しく説明し、物理的にシミュレートした多数のシナリオを通じて、このソリューションの実現可能性を示す。

要約(オリジナル)

Mountain slopes are perfect examples of harsh environments in which humans are required to perform difficult and dangerous operations such as removing unstable boulders, dangerous vegetation or deploying safety nets. A good replacement for human intervention can be offered by climbing robots. The different solutions existing in the literature are not up to the task for the difficulty of the requirements (navigation, heavy payloads, flexibility in the execution of the tasks). In this paper, we propose a robotic platform that can fill this gap. Our solution is based on a robot that hangs on ropes, and uses a retractable leg to jump away from the mountain walls. Our package of mechanical solutions, along with the algorithms developed for motion planning and control, delivers swift navigation on irregular and steep slopes, the possibility to overcome or travel around significant natural barriers, and the ability to carry heavy payloads and execute complex tasks. In the paper, we give a full account of our main design and algorithmic choices and show the feasibility of the solution through a large number of physically simulated scenarios.

arxiv情報

著者 Michele Focchi,Andrea Del Prete,Daniele Fontanelli,Marco Frego,Angelika Peer,Luigi Palopoli
発行日 2025-03-03 10:20:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | ALPINE: a climbing robot for operations in mountain environments はコメントを受け付けていません

Enhanced Optimization Strategies to Design an Underactuated Hand Exoskeleton

要約

外骨格は人間の体力を向上させ、身体障害者に支援を提供することができる。しかし、その設計において安全性と最適な性能を確保することは大きな課題である。本研究では、まず単一目的(力の伝達を最大化する)を含み、次に多目的(トルク分散とアクチュエータ変位も最小化する)に拡張した、非作動型ハンド外骨格(U-HEx)の設計プロセスを紹介する。最適化には、遺伝的アルゴリズム、ビッグバン-ビッグクランチアルゴリズム、および多目的最適化のためのそれらのバージョンを使用した。分析の結果、ビッグバン-ビッグクランチを使用することで、収束時間が短縮され、最適性に関してより一貫性のある高い結果が得られることが明らかになった。さらに、より多くの目的を追加することは、設計者に様々なトレードオフの解決策を提供し、設計者は、最適化アルゴリズムと計算負荷を複雑にする代償として、プロセスを繰り返すことなく、目的に優先順位を設定することができる。これらの結果は、外骨格を設計する際に適切な最適化を行うことの重要性を強調するとともに、この特定のロボット設計に大きな改善をもたらすものである。

要約(オリジナル)

Exoskeletons can boost human strength and provide assistance to individuals with physical disabilities. However, ensuring safety and optimal performance in their design poses substantial challenges. This study presents the design process for an underactuated hand exoskeleton (U-HEx), first including a single objective (maximizing force transmission), then expanding into multi objective (also minimizing torque variance and actuator displacement). The optimization relies on a Genetic Algorithm, the Big Bang-Big Crunch Algorithm, and their versions for multi-objective optimization. Analyses revealed that using Big Bang-Big Crunch provides high and more consistent results in terms of optimality with lower convergence time. In addition, adding more objectives offers a variety of trade-off solutions to the designers, who might later set priorities for the objectives without repeating the process – at the cost of complicating the optimization algorithm and computational burden. These findings underline the importance of performing proper optimization while designing exoskeletons, as well as providing a significant improvement to this specific robotic design.

arxiv情報

著者 Baris Akbas,Huseyin Taner Yuksel,Aleyna Soylemez,Mine Sarac,Fabio Stroppa
発行日 2025-03-03 11:14:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.NE, cs.RO | Enhanced Optimization Strategies to Design an Underactuated Hand Exoskeleton はコメントを受け付けていません

Ephemerality meets LiDAR-based Lifelong Mapping

要約

生涯マッピングは、動的環境におけるロボットの長期的な展開に不可欠である。本論文では、複数のセッションデータをシームレスに整列させ、動的オブジェクトを削除し、エンドツーエンドで地図を更新することができる、エフェメラリティ支援LiDARベースの生涯マッピングフレームワークであるELiteを紹介する。地図要素は通常、静的か動的かに分類されるが、駐車中の車のようなケースでは、二項対立よりも詳細な分類が必要であることを示している。我々のアプローチの中心は、世界を2段階の$textit{ephemerality}$に確率的にモデル化することである。エフェマリティに符号化された時空間コンテキストを活用することで、ELiteは過渡的なマップ要素を正確に推測し、信頼性の高い最新の静的マップを維持し、新しいデータをよりきめ細かく整列させる際の頑健性を向上させることができる。長期間のデータセットを用いた広範な実世界実験により、本システムの頑健性と有効性が実証された。ソースコードはロボット工学コミュニティ向けに公開されている: https://github.com/dongjae0107/ELite.

要約(オリジナル)

Lifelong mapping is crucial for the long-term deployment of robots in dynamic environments. In this paper, we present ELite, an ephemerality-aided LiDAR-based lifelong mapping framework which can seamlessly align multiple session data, remove dynamic objects, and update maps in an end-to-end fashion. Map elements are typically classified as static or dynamic, but cases like parked cars indicate the need for more detailed categories than binary. Central to our approach is the probabilistic modeling of the world into two-stage $\textit{ephemerality}$, which represent the transiency of points in the map within two different time scales. By leveraging the spatiotemporal context encoded in ephemeralities, ELite can accurately infer transient map elements, maintain a reliable up-to-date static map, and improve robustness in aligning the new data in a more fine-grained manner. Extensive real-world experiments on long-term datasets demonstrate the robustness and effectiveness of our system. The source code is publicly available for the robotics community: https://github.com/dongjae0107/ELite.

arxiv情報

著者 Hyeonjae Gil,Dongjae Lee,Giseop Kim,Ayoung Kim
発行日 2025-03-03 11:16:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Ephemerality meets LiDAR-based Lifelong Mapping はコメントを受け付けていません

Interpretable Data-Driven Ship Dynamics Model: Enhancing Physics-Based Motion Prediction with Parameter Optimization

要約

船舶への自律航行システムの導入には、個々の船舶に合わせた正確な運動予測モデルが必要である。伝統的な物理ベースのモデルは、流体力学的な原理に基づいているものの、現実の条件下での船舶固有の挙動を説明できないことが多い。逆に、純粋なデータ駆動型モデルは特異性を提供するが、エッジケースにおける解釈可能性と頑健性に欠ける。本研究では、物理ベースの方程式とデータ駆動型のパラメータ最適化を統合したデータ駆動型の物理ベースモデルを提案し、解釈可能性と適応性を確保するために両方のアプローチの長所を活用する。このモデルは、3-DoF動力学、舵、プロペラ力などの物理ベースのコンポーネントを組み込む一方、抵抗曲線や舵係数などのパラメータは合成データを用いて最適化する。パラメータ最適化プロセスに領域知識を組み込むことにより、適合モデルは物理的整合性を維持する。本アプローチの検証は、2隻のコンテナ船を用いて、地上での真実の軌跡に対する予測値を定性的にも定量的にも比較することで実現した。その結果、データ駆動型物理ベースモデルの予測精度と信頼性が、従来の海洋工学的手法で調整されたベースライン物理ベースモデルよりも大幅に改善されたことが実証された。適合したモデルは、様々な条件下での船舶固有の挙動を捉え、その予測精度は51.6%(船舶A)、57.8%(船舶B)、一貫性は72.36%(船舶A)、89.67%(船舶B)であった。

要約(オリジナル)

The deployment of autonomous navigation systems on ships necessitates accurate motion prediction models tailored to individual vessels. Traditional physics-based models, while grounded in hydrodynamic principles, often fail to account for ship-specific behaviors under real-world conditions. Conversely, purely data-driven models offer specificity but lack interpretability and robustness in edge cases. This study proposes a data-driven physics-based model that integrates physics-based equations with data-driven parameter optimization, leveraging the strengths of both approaches to ensure interpretability and adaptability. The model incorporates physics-based components such as 3-DoF dynamics, rudder, and propeller forces, while parameters such as resistance curve and rudder coefficients are optimized using synthetic data. By embedding domain knowledge into the parameter optimization process, the fitted model maintains physical consistency. Validation of the approach is realized with two container ships by comparing, both qualitatively and quantitatively, predictions against ground-truth trajectories. The results demonstrate significant improvements, in predictive accuracy and reliability, of the data-driven physics-based models over baseline physics-based models tuned with traditional marine engineering practices. The fitted models capture ship-specific behaviors in diverse conditions with their predictions being, 51.6% (ship A) and 57.8% (ship B) more accurate, 72.36% (ship A) and 89.67% (ship B) more consistent.

arxiv情報

著者 Christos Papandreou,Michail Mathioudakis,Theodoros Stouraitis,Petros Iatropoulos,Antonios Nikitakis,Stavros Paschalakis,Konstantinos Kyriakopoulos
発行日 2025-03-03 11:39:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, cs.SY, eess.SY | Interpretable Data-Driven Ship Dynamics Model: Enhancing Physics-Based Motion Prediction with Parameter Optimization はコメントを受け付けていません

ForceMimic: Force-Centric Imitation Learning with Force-Motion Capture System for Contact-Rich Manipulation

要約

ほとんどの接触リッチな操作タスクにおいて、人間は対象物に対して時間的に変化する力を加え、ビジョンガイドされた手の軌道の不正確さを補う。しかし、現在のロボットの学習アルゴリズムは、主に軌道に基づく方針に焦点を当てており、力に関連するスキルの学習にはあまり注意が払われていない。この限界に対処するため、我々は力中心のロボット学習システムであるForceMimicを導入し、ロバストな接触リッチ操作のためのハイブリッド力-動作模倣学習アルゴリズムとともに、力を意識した自然でロボット不要のロボットデモ収集システムを提供する。提案するForceCaptureシステムを用いると、オペレータは5分でズッキーニの皮を剥くことができるが、フォースフィードバック遠隔操作では13分以上かかり、タスク完了に苦労する。収集されたデータを用いて、我々はHybridILを提案し、ロボットの実行中に予測されたレンチ位置パラメータに適合するように、ハイブリッド力位置制御プリミティブを備えた力中心の模倣学習モデルを学習する。実験により、我々のアプローチにより、接触が多い野菜の皮むきタスクにおいて、モデルがよりロバストなポリシーを学習できることが実証され、最先端の純粋な視覚ベースの模倣学習と比較して、成功率が54.5%向上した。ハードウェア、コード、データ、その他の結果は、プロジェクトのウェブサイトhttps://forcemimic.github.io。

要約(オリジナル)

In most contact-rich manipulation tasks, humans apply time-varying forces to the target object, compensating for inaccuracies in the vision-guided hand trajectory. However, current robot learning algorithms primarily focus on trajectory-based policy, with limited attention given to learning force-related skills. To address this limitation, we introduce ForceMimic, a force-centric robot learning system, providing a natural, force-aware and robot-free robotic demonstration collection system, along with a hybrid force-motion imitation learning algorithm for robust contact-rich manipulation. Using the proposed ForceCapture system, an operator can peel a zucchini in 5 minutes, while force-feedback teleoperation takes over 13 minutes and struggles with task completion. With the collected data, we propose HybridIL to train a force-centric imitation learning model, equipped with hybrid force-position control primitive to fit the predicted wrench-position parameters during robot execution. Experiments demonstrate that our approach enables the model to learn a more robust policy under the contact-rich task of vegetable peeling, increasing the success rates by 54.5% relatively compared to state-ofthe-art pure-vision-based imitation learning. Hardware, code, data and more results can be found on the project website at https://forcemimic.github.io.

arxiv情報

著者 Wenhai Liu,Junbo Wang,Yiming Wang,Weiming Wang,Cewu Lu
発行日 2025-03-03 12:41:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | ForceMimic: Force-Centric Imitation Learning with Force-Motion Capture System for Contact-Rich Manipulation はコメントを受け付けていません

Preference Aligned Diffusion Planner for Quadrupedal Locomotion Control

要約

拡散モデルは、大規模なデータセットから複雑な分布をキャプチャする際に優れた性能を発揮し、四足歩行ロコモーション制御に有望なソリューションを提供する。しかし、拡散プランナーのロバスト性は、事前に収集したデータセットの多様性に本質的に依存する。この問題を緩和するために、限られたデータセット(報酬にとらわれない)の下で、拡散プランナの能力を向上させる2段階の学習フレームワークを提案する。オフライン段階を通して、拡散プランナは、報酬ラベルを用いずに、エキスパートデータセットから状態-行動シーケンスの結合分布を学習する。その後、学習されたオフラインプランナに基づいて、シミュレーション環境においてオンライン相互作用を実行することで、元の振る舞いを大幅に多様化し、ロバスト性を向上させる。具体的には、真実の報酬や人間の嗜好を用いない、新しい弱い嗜好ラベリング法を提案する。提案手法は、異なる速度下でのペーシング歩行、トロット歩行、バウンディング歩行において優れた安定性と速度追跡精度を示し、実際のUnitree Go1ロボットへのゼロショット転送が可能である。本論文のプロジェクトサイトはhttps://shangjaven.github.io/preference-aligned-diffusion-legged。

要約(オリジナル)

Diffusion models demonstrate superior performance in capturing complex distributions from large-scale datasets, providing a promising solution for quadrupedal locomotion control. However, the robustness of the diffusion planner is inherently dependent on the diversity of the pre-collected datasets. To mitigate this issue, we propose a two-stage learning framework to enhance the capability of the diffusion planner under limited dataset (reward-agnostic). Through the offline stage, the diffusion planner learns the joint distribution of state-action sequences from expert datasets without using reward labels. Subsequently, we perform the online interaction in the simulation environment based on the trained offline planner, which significantly diversified the original behavior and thus improves the robustness. Specifically, we propose a novel weak preference labeling method without the ground-truth reward or human preferences. The proposed method exhibits superior stability and velocity tracking accuracy in pacing, trotting, and bounding gait under different speeds and can perform a zero-shot transfer to the real Unitree Go1 robots. The project website for this paper is at https://shangjaven.github.io/preference-aligned-diffusion-legged.

arxiv情報

著者 Xinyi Yuan,Zhiwei Shang,Zifan Wang,Chenkai Wang,Zhao Shan,Meixin Zhu,Chenjia Bai,Xuelong Li,Weiwei Wan,Kensuke Harada
発行日 2025-03-03 14:24:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Preference Aligned Diffusion Planner for Quadrupedal Locomotion Control はコメントを受け付けていません

MMDVS-LF: Multi-Modal Dynamic Vision Sensor and Eye-Tracking Dataset for Line Following

要約

ダイナミック・ビジョン・センサー(DVS)は、その高い時間分解能と非同期イベント・ベースのデータにより、制御アプリケーションにおいてユニークな利点を提供する。しかし、機械学習アルゴリズムへの採用はまだ限定的である。このギャップに対処し、DVSデータの特性を活用したモデルの開発を促進するために、我々はMMDVS-LF: Multi-Modal Dynamic Vision Sensor and Eye-Tracking Dataset for Line Followingを紹介する。この包括的なデータセットは、小規模な標準化された車両からのDVS記録と視線追跡データを含む、複数のセンサーモダリティを統合した最初のものである。さらに、このデータセットには、RGBビデオ、オドメトリ、慣性計測ユニット(IMU)データ、およびライン・フォローを行うドライバーの人口統計データが含まれています。多様なデータを持つMMDVS-LFは、MNISTデータセットが畳み込みニューラルネットワークのために行ったように、イベントベースのディープラーニングアルゴリズムを開発するための新たな機会を開く。

要約(オリジナル)

Dynamic Vision Sensors (DVS) offer a unique advantage in control applications due to their high temporal resolution and asynchronous event-based data. Still, their adoption in machine learning algorithms remains limited. To address this gap and promote the development of models that leverage the specific characteristics of DVS data, we introduce the MMDVS-LF: Multi-Modal Dynamic Vision Sensor and Eye-Tracking Dataset for Line Following. This comprehensive dataset is the first to integrate multiple sensor modalities, including DVS recordings and eye-tracking data from a small-scale standardized vehicle. Additionally, the dataset includes RGB video, odometry, Inertial Measurement Unit (IMU) data, and demographic data of drivers performing a Line Following. With its diverse range of data, MMDVS-LF opens new opportunities for developing event-based deep learning algorithms just like the MNIST dataset did for Convolutional Neural Networks.

arxiv情報

著者 Felix Resch,Mónika Farsang,Radu Grosu
発行日 2025-03-03 14:52:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | MMDVS-LF: Multi-Modal Dynamic Vision Sensor and Eye-Tracking Dataset for Line Following はコメントを受け付けていません