Longitudinal Control for Autonomous Racing with Combustion Engine Vehicles

要約

通常、パスまたは軌道追跡のコントローラーが自律運転に使用されます。
通常、これらのコントローラーは、縦方向の加速度や力などの高レベルのコマンドを生成します。
ただし、燃焼エンジンを備えた車両は、さまざまな作動入力を期待しています。
このペーパーでは、スロットル、ブレーキ圧力、望ましいギアなどの必要な低レベルの車両コマンドに高レベルの軌道追跡コマンドを変換する縦方向の制御概念を提案します。
さまざまな軌道追跡制御アルゴリズムと車両を簡単に統合するためのモジュラー構造を選択しました。
提案された制御概念により、高レベルの制御コマンドの緊密な追跡が可能になります。
アンチロックブレーキシステム、トラクションコントロール、ブレーキウォームアップコントロールは、実際のテスト中に安全な動作を保証します。
Real World Dataを使用して、縦断的加速度を使用して最大25ドルの\ frac {\ mathrm {m}} {\ mathrm {s}^2} $に達する概念の実験的検証を提供します。
この実験は、YASマリーナフォーミュラ1サーキットでのアブダビ自動運転レーシングリーグの最初のイベントで、EAV24 RaceCarを使用して実施されました。

要約(オリジナル)

Usually, a controller for path- or trajectory tracking is employed in autonomous driving. Typically, these controllers generate high-level commands like longitudinal acceleration or force. However, vehicles with combustion engines expect different actuation inputs. This paper proposes a longitudinal control concept that translates high-level trajectory-tracking commands to the required low-level vehicle commands such as throttle, brake pressure and a desired gear. We chose a modular structure to easily integrate different trajectory-tracking control algorithms and vehicles. The proposed control concept enables a close tracking of the high-level control command. An anti-lock braking system, traction control, and brake warmup control also ensure a safe operation during real-world tests. We provide experimental validation of our concept using real world data with longitudinal accelerations reaching up to $25 \, \frac{\mathrm{m}}{\mathrm{s}^2}$. The experiments were conducted using the EAV24 racecar during the first event of the Abu Dhabi Autonomous Racing League on the Yas Marina Formula 1 Circuit.

arxiv情報

著者 Phillip Pitschi,Simon Sagmeister,Sven Goblirsch,Markus Lienkamp,Boris Lohmann
発行日 2025-04-24 10:21:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

Object Pose Estimation by Camera Arm Control Based on the Next Viewpoint Estimation

要約

小売店の製品ディスプレイロボットのシンプルな形状の製品のポーズ推定に効果的な次の視点(NV)を推定する新しい方法を開発しました。
RGBDカメラに基づいてニューラルネットワーク(NN)を使用したポーズ推定方法は非常に正確ですが、カメラが現在のビューポイントでテクスチャの機能をほとんど獲得し、形状の特徴を取得すると精度が大幅に減少します。
ただし、以前の数学モデルベースの方法が効果的なNVを推定することは困難です。これは、単純な形状のオブジェクトに形状機能がほとんどないためです。
したがって、ポーズ推定とNV推定の関係に焦点を当てます。
ポーズの推定がより正確になると、NVの推定がより正確になります。
したがって、NVを同時に推定する新しいポーズ推定NNを開発します。
実験結果は、NVの推定では、数学モデルベースのNV計算よりも7.4ptが高かったポーズ推定成功率77.3%に気付いたことが示されました。
さらに、私たちの方法を使用してロボットが製品の84.2 \%を表示することを確認しました。

要約(オリジナル)

We have developed a new method to estimate a Next Viewpoint (NV) which is effective for pose estimation of simple-shaped products for product display robots in retail stores. Pose estimation methods using Neural Networks (NN) based on an RGBD camera are highly accurate, but their accuracy significantly decreases when the camera acquires few texture and shape features at a current view point. However, it is difficult for previous mathematical model-based methods to estimate effective NV which is because the simple shaped objects have few shape features. Therefore, we focus on the relationship between the pose estimation and NV estimation. When the pose estimation is more accurate, the NV estimation is more accurate. Therefore, we develop a new pose estimation NN that estimates NV simultaneously. Experimental results showed that our NV estimation realized a pose estimation success rate 77.3\%, which was 7.4pt higher than the mathematical model-based NV calculation did. Moreover, we verified that the robot using our method displayed 84.2\% of products.

arxiv情報

著者 Tomoki Mizuno,Kazuya Yabashi,Tsuyoshi Tasaki
発行日 2025-04-24 10:26:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

MUVO: A Multimodal Generative World Model for Autonomous Driving with Geometric Representations

要約

自律運転の世界モデルは、今日のシステムの推論能力を劇的に改善する可能性があります。
ただし、ほとんどの作業はカメラデータに焦点を当てており、LIDARデータを活用するか、両方を組み合わせて自動車両センサーのセットアップをよりよく表すものがあります。
さらに、生センサーの予測は3D占有予測よりも実用的ではありませんが、マルチモーダルセンサーデータと3D占有予測の両方を組み合わせることの効果を調べる作業はありません。
この作業では、幾何学的なボクセル表現(MUVO)を備えたマルチモーダルワールドモデルを使用した一連の実験を実行して、センサーデータ予測への影響をよりよく理解するために、さまざまなセンサー融合戦略を評価します。
また、現在のセンサー融合アプローチの潜在的な弱点を分析し、3D占有率をさらに予測することの利点を調べます。

要約(オリジナル)

World models for autonomous driving have the potential to dramatically improve the reasoning capabilities of today’s systems. However, most works focus on camera data, with only a few that leverage lidar data or combine both to better represent autonomous vehicle sensor setups. In addition, raw sensor predictions are less actionable than 3D occupancy predictions, but there are no works examining the effects of combining both multimodal sensor data and 3D occupancy prediction. In this work, we perform a set of experiments with a MUltimodal World Model with Geometric VOxel representations (MUVO) to evaluate different sensor fusion strategies to better understand the effects on sensor data prediction. We also analyze potential weaknesses of current sensor fusion approaches and examine the benefits of additionally predicting 3D occupancy.

arxiv情報

著者 Daniel Bogdoll,Yitian Yang,Tim Joseph,Melih Yazgan,J. Marius Zöllner
発行日 2025-04-24 13:08:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | コメントする

Dexterous Manipulation through Imitation Learning: A Survey

要約

ロボットハンドまたはマルチフィンガーのエンドエフェクターの能力を指し、正確で調整された指の動きと適応力変調を介してオブジェクトを巧みに制御、再配向、操作する能力を指す、器用な操作は、人間の手の劣性と同様の複雑な相互作用を可能にします。
ロボット工学と機械学習の最近の進歩により、これらのシステムが複雑で非構造化されていない環境で動作するという需要が高まっています。
従来のモデルベースのアプローチは、高次元と複雑な操作の複雑な接触ダイナミクスのために、タスクとオブジェクトのバリエーション全体に一般化するのに苦労しています。
強化学習(RL)などのモデルフリーの方法では、約束が示されていますが、大規模なトレーニング、大規模な相互作用データ、および安定性と有効性に対する慎重に設計された報酬が必要です。
Imitation Learning(IL)は、ロボットが専門家のデモンストレーションから直接器用な操作スキルを直接獲得できるようにし、明示的なモデリングと大規模な試行用とエラーの必要性をバイパスしながら、きめ細かい調整と接触ダイナミクスをキャプチャできるようにすることにより、代替手段を提供します。
この調査では、模倣学習、最近の進歩の詳細に基づいた器用な操作方法の概要を提供し、この分野の重要な課題に対処します。
さらに、IL駆動の器用な操作を強化するための潜在的な研究方向を探ります。
私たちの目標は、研究者と実践者に、この急速に進化するドメインへの包括的な紹介を提供することです。

要約(オリジナル)

Dexterous manipulation, which refers to the ability of a robotic hand or multi-fingered end-effector to skillfully control, reorient, and manipulate objects through precise, coordinated finger movements and adaptive force modulation, enables complex interactions similar to human hand dexterity. With recent advances in robotics and machine learning, there is a growing demand for these systems to operate in complex and unstructured environments. Traditional model-based approaches struggle to generalize across tasks and object variations due to the high dimensionality and complex contact dynamics of dexterous manipulation. Although model-free methods such as reinforcement learning (RL) show promise, they require extensive training, large-scale interaction data, and carefully designed rewards for stability and effectiveness. Imitation learning (IL) offers an alternative by allowing robots to acquire dexterous manipulation skills directly from expert demonstrations, capturing fine-grained coordination and contact dynamics while bypassing the need for explicit modeling and large-scale trial-and-error. This survey provides an overview of dexterous manipulation methods based on imitation learning, details recent advances, and addresses key challenges in the field. Additionally, it explores potential research directions to enhance IL-driven dexterous manipulation. Our goal is to offer researchers and practitioners a comprehensive introduction to this rapidly evolving domain.

arxiv情報

著者 Shan An,Ziyu Meng,Chao Tang,Yuning Zhou,Tengyu Liu,Fangqiang Ding,Shufang Zhang,Yao Mu,Ran Song,Wei Zhang,Zeng-Guang Hou,Hong Zhang
発行日 2025-04-24 13:15:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | コメントする

Empirical Comparison of Four Stereoscopic Depth Sensing Cameras for Robotics Applications

要約

深さセンシングは、ロボット工学や他の多くの分野で不可欠な技術です。
多くの深度センシング(またはRGB-D)カメラが市場で利用でき、アプリケーションに最適なカメラを選択するのは難しい場合があります。
この作業では、わずかに異なるビューから2つの画像を使用して距離を感知する4つの立体視鏡RGB-Dカメラをテストしました。
3つのシナリオで、4つのカメラ(Intel RealSense D435、Intel RealSense D455、Stereolabs Zed 2、およびLuxonis Oak-D Pro)を経験的に比較しました。
各カメラに3,000以上のRGB-Dフレームを記録および評価しました。
最大1メートルまでのオブジェクトまでの距離を持つテーブルトップロボットシナリオの場合、テストされたすべてのシナリオで1 cm未満のエラーで知覚できるD435カメラによって最高のパフォーマンスが提供されます。
より長い距離では、他の3つのモデルのパフォーマンスが向上し、一部のモバイルロボットアプリケーションにより適しています。
OAK-D Proは、統合されたAIモジュール(オブジェクトやヒューマンキーポイント検出など)をさらに提供します。
Zed 2は全体的に最高のカメラであり、4メートルでもエラーを3 cm未満に保つことができます。
ただし、スタンドアロンデバイスではなく、深度データ収集用のGPUを備えたコンピューターが必要です。
すべてのデータ(12,000 RGB-Dフレームを超える)は、https://rustlluk.github.io/rgbd-comparisonで公開されています。

要約(オリジナル)

Depth sensing is an essential technology in robotics and many other fields. Many depth sensing (or RGB-D) cameras are available on the market and selecting the best one for your application can be challenging. In this work, we tested four stereoscopic RGB-D cameras that sense the distance by using two images from slightly different views. We empirically compared four cameras (Intel RealSense D435, Intel RealSense D455, StereoLabs ZED 2, and Luxonis OAK-D Pro) in three scenarios: (i) planar surface perception, (ii) plastic doll perception, (iii) household object perception (YCB dataset). We recorded and evaluated more than 3,000 RGB-D frames for each camera. For table-top robotics scenarios with distance to objects up to one meter, the best performance is provided by the D435 camera that is able to perceive with an error under 1 cm in all of the tested scenarios. For longer distances, the other three models perform better, making them more suitable for some mobile robotics applications. OAK-D Pro additionally offers integrated AI modules (e.g., object and human keypoint detection). ZED 2 is overall the best camera which is able to keep the error under 3 cm even at 4 meters. However, it is not a standalone device and requires a computer with a GPU for depth data acquisition. All data (more than 12,000 RGB-D frames) are publicly available at https://rustlluk.github.io/rgbd-comparison.

arxiv情報

著者 Lukas Rustler,Vojtech Volprecht,Matej Hoffmann
発行日 2025-04-24 13:54:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Flying through cluttered and dynamic environments with LiDAR

要約

無人航空機(UAV)を乱雑で動的な環境でナビゲートすると、特に速いまたは突然の障害に対処する場合、依然として重要な課題のままです。
このペーパーでは、UAVが複雑な環境でのさまざまな移動障害を回避できるように設計された完全なLIDARベースのシステムを紹介します。
知覚と計画の高い計算効率に利益をもたらすと、システムは、低遅延のオンボードコンピューティングリソースを使用してリアルタイムで動作できます。
動的環境の知覚のために、以前の作業であるM検出器をシステムに統合しました。
M検出器は、さまざまなサイズ、色、タイプの移動オブジェクトが確実に検出されることを保証します。
動的環境計画のために、動的オブジェクトの予測を統合計画と制御(IPC)フレームワーク、つまりDynIPCに組み込みます。
この統合により、UAVは動的障害に関する予測を活用して効果的に回避することができます。
シミュレーションと実際の実験の両方を通じて、提案されたシステムを検証します。
シミュレーションテストでは、当社のシステムは、成功率、時間消費、平均飛行時間、最大速度など、いくつかのメトリックにわたって最先端のベースラインよりも優れています。
実際の試験では、私たちのシステムは森林をうまくナビゲートし、その経路に沿って障害物を動かすことを避けます。

要約(オリジナル)

Navigating unmanned aerial vehicles (UAVs) through cluttered and dynamic environments remains a significant challenge, particularly when dealing with fast-moving or sudden-appearing obstacles. This paper introduces a complete LiDAR-based system designed to enable UAVs to avoid various moving obstacles in complex environments. Benefiting the high computational efficiency of perception and planning, the system can operate in real time using onboard computing resources with low latency. For dynamic environment perception, we have integrated our previous work, M-detector, into the system. M-detector ensures that moving objects of different sizes, colors, and types are reliably detected. For dynamic environment planning, we incorporate dynamic object predictions into the integrated planning and control (IPC) framework, namely DynIPC. This integration allows the UAV to utilize predictions about dynamic obstacles to effectively evade them. We validate our proposed system through both simulations and real-world experiments. In simulation tests, our system outperforms state-of-the-art baselines across several metrics, including success rate, time consumption, average flight time, and maximum velocity. In real-world trials, our system successfully navigates through forests, avoiding moving obstacles along its path.

arxiv情報

著者 Huajie Wu,Wenyi Liu,Yunfan Ren,Zheng Liu,Hairuo Wei,Fangcheng Zhu,Haotian Li,Fu Zhang
発行日 2025-04-24 13:59:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

Deployment-friendly Lane-changing Intention Prediction Powered by Brain-inspired Spiking Neural Networks

要約

周囲の車両の車線変更意図の正確かつリアルタイムの予測は、オープンワールドシナリオに安全で効率的な自律駆動システムを展開する上で重要な課題です。
既存の高性能な方法は、計算コストが高い、トレーニング時間が長く、過度のメモリ要件があるため、展開が困難です。
ここでは、脳に触発されたスパイクニューラルネットワーク(SNN)に基づいた効率的な車線変更意図予測アプローチを提案します。
SNNのイベント駆動型の性質を活用することにより、提案されたアプローチにより、車両の状態をより効率的にエンコードすることができます。
HighDおよびNGSIMデータセットで実施された比較実験は、この方法がトレーニング効率を大幅に改善し、同等の予測精度を維持しながら展開コストを削減することを示しています。
特に、ベースラインと比較して、当社のアプローチにより、トレーニング時間が75%減少し、メモリの使用量が99.9%短縮されます。
これらの結果は、車線を変える予測における方法の効率と信頼性を検証し、安全で効率的な自律駆動システムの可能性を強調し、トレーニング時間の短縮、メモリ使用量の削減、より速い推論など、展開に大きな利点を提供します。

要約(オリジナル)

Accurate and real-time prediction of surrounding vehicles’ lane-changing intentions is a critical challenge in deploying safe and efficient autonomous driving systems in open-world scenarios. Existing high-performing methods remain hard to deploy due to their high computational cost, long training times, and excessive memory requirements. Here, we propose an efficient lane-changing intention prediction approach based on brain-inspired Spiking Neural Networks (SNN). By leveraging the event-driven nature of SNN, the proposed approach enables us to encode the vehicle’s states in a more efficient manner. Comparison experiments conducted on HighD and NGSIM datasets demonstrate that our method significantly improves training efficiency and reduces deployment costs while maintaining comparable prediction accuracy. Particularly, compared to the baseline, our approach reduces training time by 75% and memory usage by 99.9%. These results validate the efficiency and reliability of our method in lane-changing predictions, highlighting its potential for safe and efficient autonomous driving systems while offering significant advantages in deployment, including reduced training time, lower memory usage, and faster inference.

arxiv情報

著者 Shuqi Shen,Junjie Yang,Hui Zhong,Hongliang Lu,Xinhu Zheng,Hai Yang
発行日 2025-04-24 15:12:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Unifying Complementarity Constraints and Control Barrier Functions for Safe Whole-Body Robot Control

要約

安全性が批判的な全身ロボット制御には、衝突回避をリアルタイムで保証する反応的な方法が必要です。
相補性の制約と制御バリア関数(CBF)は、そのような安全性の制約を確保するためのコアツールとして浮上しており、それぞれがよく発達したフィールドを表しています。
同様の問題に対処しているにもかかわらず、彼らのつながりはほとんど未踏のままです。
このペーパーは、単一と複数の制約シナリオの両方を考慮して、サンプルデータのこれら2つの方法論の一次システムの同等性を正式に証明することにより、このギャップを橋渡しします。
この同等性を実証することにより、これらの手法について統一された視点を提供します。
この統一には理論的および実用的な意味があり、堅牢性の保証と相補性とCBFフレームワークの間のアルゴリズムの改善の交差アプリケーションを促進します。
これらの相乗効果について説明し、より一般的なケースの方法の比較において将来の仕事を動機付けます。

要約(オリジナル)

Safety-critical whole-body robot control demands reactive methods that ensure collision avoidance in real-time. Complementarity constraints and control barrier functions (CBF) have emerged as core tools for ensuring such safety constraints, and each represents a well-developed field. Despite addressing similar problems, their connection remains largely unexplored. This paper bridges this gap by formally proving the equivalence between these two methodologies for sampled-data, first-order systems, considering both single and multiple constraint scenarios. By demonstrating this equivalence, we provide a unified perspective on these techniques. This unification has theoretical and practical implications, facilitating the cross-application of robustness guarantees and algorithmic improvements between complementarity and CBF frameworks. We discuss these synergistic benefits and motivate future work in the comparison of the methods in more general cases.

arxiv情報

著者 Rafael I. Cabral Muchacho,Riddhiman Laha,Florian T. Pokorny,Luis F. C. Figueredo,Nilanjan Chakraborty
発行日 2025-04-24 15:17:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

Efficient Iterative Proximal Variational Inference Motion Planning

要約

不確実性の下でのモーション計画は、最適な後部分布が明示的な形を持っている確率的最適制御問題としてキャストできます。
この事後に概算するために、この作業は、パス分布空間で変分推論(VI)を解くことにより、ガウス分布の空間における最適化の問題をフレーム化します。
線形ガウス確率的ダイナミクスの場合、最適なガウス提案を繰り返し解決するための近位アルゴリズムを提案します。
計算ボトルネックは、密集した軌道上の提案に関する勾配を評価しています。
スパースモーションプランニングファクターグラフとガウスの信念伝播(GBP)を活用して、グラフィックプロセシングユニット(GPU)でのこれらの勾配の並行コンピューティングを可能にします。
新しいパラダイムを、並列ガウス変異推論モーションプランニング(P-GVIMP)と呼びます。
線形ガウスシステムの効率的なアルゴリズムに基づいて、統計的線形回帰(SLR)技術に基づいた反復パラダイムを提案して、P-GVIMPが線形化された時間変化システムのサブラウシンとして機能する非線形確率システムのモーション計画を解決します。
さまざまなロボットシステムで提案されたフレームワークを検証し、不確実性の下で非線形システムの並列計算と成功した計画ソリューションを活用することで達成される大幅な速度加速を実証します。
オープンソースの実装は、https://github.com/hzyu17/vimpで表示されます。

要約(オリジナル)

Motion planning under uncertainty can be cast as a stochastic optimal control problem where the optimal posterior distribution has an explicit form. To approximate this posterior, this work frames an optimization problem in the space of Gaussian distributions by solving a Variational Inference (VI) in the path distribution space. For linear-Gaussian stochastic dynamics, we propose a proximal algorithm to solve for an optimal Gaussian proposal iteratively. The computational bottleneck is evaluating the gradients with respect to the proposal over a dense trajectory. We exploit the sparse motion planning factor graph and Gaussian Belief Propagation (GBP), allowing for parallel computing of these gradients on Graphics Processing Units (GPUs). We term the novel paradigm as the Parallel Gaussian Variational Inference Motion Planning (P-GVIMP). Building on the efficient algorithm for linear Gaussian systems, we then propose an iterative paradigm based on Statistical Linear Regression (SLR) techniques to solve motion planning for nonlinear stochastic systems, where the P-GVIMP serves as a sub-routine for the linearized time-varying system. We validate the proposed framework on various robotic systems, demonstrating significant speed acceleration achieved by leveraging parallel computation and successful planning solutions for nonlinear systems under uncertainty. An open-sourced implementation is presented at https://github.com/hzyu17/VIMP.

arxiv情報

著者 Zinuo Chang,Hongzhe Yu,Patricio Vela,Yongxin Chen
発行日 2025-04-24 16:23:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Robotic Task Ambiguity Resolution via Natural Language Interaction

要約

言語条件付きのポリシーは、ユーザーが自然言語を使用してタスクを指定できるため、ロボット工学の大幅な採用を最近獲得しました。
多くの研究では、言語条件付きポリシーのアクション予測の改善に焦点を当てていますが、タスクの説明に関する推論はほとんど見落とされています。
曖昧なタスクの説明は、ロボットエージェントによる誤解により、下流のポリシーの失敗につながることがよくあります。
この課題に対処するために、AMBRESVLMを紹介します。これは、観察されたシーンで言語の目標を根拠とする新しい方法と、タスクのあいまいさについて明示的に理由を紹介します。
シミュレートされたドメインと実世界の両方のドメインの両方でその有効性を広範囲に評価し、最近の最先端のベースラインと比較して優れたタスクの曖昧さの検出と解像度を示しています。
最後に、実際のロボット実験は、私たちのモデルがダウンストリームロボットポリシーのパフォーマンスを改善し、平均成功率を69.6%から97.1%に増加させることを示しています。
データ、コード、トレーニングモデルをhttps://ambres.cs.uni-freiburg.deで公開しています。

要約(オリジナル)

Language-conditioned policies have recently gained substantial adoption in robotics as they allow users to specify tasks using natural language, making them highly versatile. While much research has focused on improving the action prediction of language-conditioned policies, reasoning about task descriptions has been largely overlooked. Ambiguous task descriptions often lead to downstream policy failures due to misinterpretation by the robotic agent. To address this challenge, we introduce AmbResVLM, a novel method that grounds language goals in the observed scene and explicitly reasons about task ambiguity. We extensively evaluate its effectiveness in both simulated and real-world domains, demonstrating superior task ambiguity detection and resolution compared to recent state-of-the-art baselines. Finally, real robot experiments show that our model improves the performance of downstream robot policies, increasing the average success rate from 69.6% to 97.1%. We make the data, code, and trained models publicly available at https://ambres.cs.uni-freiburg.de.

arxiv情報

著者 Eugenio Chisari,Jan Ole von Hartz,Fabien Despinoy,Abhinav Valada
発行日 2025-04-24 17:08:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする