VGLD: Visually-Guided Linguistic Disambiguation for Monocular Depth Scale Recovery

要約

単眼深度スケールの回復のための堅牢な方法を提案します。
単眼の深さ推定は、スケール情報なしで正規化または逆深度を提供する相対深度推定、および(2)絶対スケールで深さの回復を伴うメトリック深度推定を提供する2つの主要な方向に分けることができます。
実用的なダウンストリームタスクの絶対スケール情報を取得するには、テキスト情報を利用して相対深度マップのスケールを回復することは非常に有望なアプローチです。
ただし、単一の画像は、異なる視点から、またはさまざまなスタイルから複数の説明を持つことができるため、異なるテキストの説明がスケール回復プロセスに大きく影響することが示されています。
この問題に対処するために、私たちの方法であるVGLDは、テキストの説明とともに、対応する画像から高レベルのセマンティック情報を組み込むことにより、テキスト情報の影響を安定させます。
このアプローチは、テキストのあいまいさを解決し、相対深さマップにグローバルに適用できる一連の線形変換パラメーター(スカラー)を堅牢に出力し、最終的にメトリックスケールの精度で深さ予測を生成します。
屋内シーン(NYUV2)と屋外シーン(kitti)の両方を使用して、いくつかの一般的な相対深さモデル(MIDAS、DEPTHANYTHING)にわたってメソッドを検証します。
私たちの結果は、複数のデータセットでトレーニングされたときにVGLDがユニバーサルアライメントモジュールとして機能し、ゼロショットシナリオでも強力なパフォーマンスを達成することを示しています。
コードはhttps://github.com/pakinwu/vgldで入手できます。

要約(オリジナル)

We propose a robust method for monocular depth scale recovery. Monocular depth estimation can be divided into two main directions: (1) relative depth estimation, which provides normalized or inverse depth without scale information, and (2) metric depth estimation, which involves recovering depth with absolute scale. To obtain absolute scale information for practical downstream tasks, utilizing textual information to recover the scale of a relative depth map is a highly promising approach. However, since a single image can have multiple descriptions from different perspectives or with varying styles, it has been shown that different textual descriptions can significantly affect the scale recovery process. To address this issue, our method, VGLD, stabilizes the influence of textual information by incorporating high-level semantic information from the corresponding image alongside the textual description. This approach resolves textual ambiguities and robustly outputs a set of linear transformation parameters (scalars) that can be globally applied to the relative depth map, ultimately generating depth predictions with metric-scale accuracy. We validate our method across several popular relative depth models(MiDas, DepthAnything), using both indoor scenes (NYUv2) and outdoor scenes (KITTI). Our results demonstrate that VGLD functions as a universal alignment module when trained on multiple datasets, achieving strong performance even in zero-shot scenarios. Code is available at: https://github.com/pakinwu/VGLD.

arxiv情報

著者 Bojin Wu,Jing Chen
発行日 2025-05-06 03:06:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | VGLD: Visually-Guided Linguistic Disambiguation for Monocular Depth Scale Recovery はコメントを受け付けていません

Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations

要約

視覚的表現は、ジェネラリストのロボット政策の開発において重要な役割を果たします。
以前のビジョンエンコーダーは、通常、単一イメージの再構築または2イメージの対照学習で事前に訓練されており、静的情報をキャプチャする傾向があり、しばしば具体化されたタスクに不可欠な動的な側面を無視します。
最近、ビデオ拡散モデル(VDMS)は、将来のフレームを予測し、物理的な世界を強く理解する能力を示しています。
VDMは本質的に現在の静的情報と予測された将来のダイナミクスの両方を含む視覚的表現を本質的に生成し、それによりロボットアクション学習のための貴重なガイダンスを提供すると仮定します。
この仮説に基づいて、VDMS内の予測された将来の表現を条件とする暗黙の逆ダイナミクスモデルを学習するビデオ予測ポリシー(VPP)を提案します。
より正確な将来を予測するために、インターネットの人間の操作データとともに、ロボットデータセット上の事前に訓練されたビデオファンデーションモデルを微調整します。
実験では、VPPは、以前の最先端と比較して、Calvin ABC-D一般化ベンチマークで18.6 \%の相対的な改善を達成し、複雑な実世界の器用な操作タスクの成功率の31.6%の増加を示しています。
https://video-prediction-policy.github.ioのプロジェクトページ

要約(オリジナル)

Visual representations play a crucial role in developing generalist robotic policies. Previous vision encoders, typically pre-trained with single-image reconstruction or two-image contrastive learning, tend to capture static information, often neglecting the dynamic aspects vital for embodied tasks. Recently, video diffusion models (VDMs) demonstrate the ability to predict future frames and showcase a strong understanding of physical world. We hypothesize that VDMs inherently produce visual representations that encompass both current static information and predicted future dynamics, thereby providing valuable guidance for robot action learning. Based on this hypothesis, we propose the Video Prediction Policy (VPP), which learns implicit inverse dynamics model conditioned on predicted future representations inside VDMs. To predict more precise future, we fine-tune pre-trained video foundation model on robot datasets along with internet human manipulation data. In experiments, VPP achieves a 18.6\% relative improvement on the Calvin ABC-D generalization benchmark compared to the previous state-of-the-art, and demonstrates a 31.6\% increase in success rates for complex real-world dexterous manipulation tasks. Project page at https://video-prediction-policy.github.io

arxiv情報

著者 Yucheng Hu,Yanjiang Guo,Pengchao Wang,Xiaoyu Chen,Yen-Jen Wang,Jianke Zhang,Koushil Sreenath,Chaochao Lu,Jianyu Chen
発行日 2025-05-04 04:28:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations はコメントを受け付けていません

Recursive Decomposition with Dependencies for Generic Divide-and-Conquer Reasoning

要約

推論タスクは、多くのドメイン、特に科学と工学において重要です。
大規模な言語モデル(LLM)は、考え方や最も少ないプロンプトなどの手法を使用して、推論タスクを進歩させていますが、これらのアプローチは、パフォーマンスまたは実行時間のいずれにおいても複雑な問題に効果的に拡大していません。
さらに、コンテキスト内の例など、新しいタスクごとに追加の監督が必要になることがよくあります。
この作業では、依存関係(RDD)を使用した再帰分解を導入します。これは、以前のアプローチよりも少ない監督を必要とする推論問題を解決するためのスケーラブルな分割統合方法です。
私たちの方法は、タスク固有のガイダンスがない場合でも、新しい問題クラスに直接適用できます。
さらに、RDDはサブタスクの依存関係をサポートし、サブタスクの順序付けられた実行と、以前のステップで行われた間違いを修正できるエラー回復メカニズムを可能にします。
それぞれ6つの難易度レベルを持つ2つのベンチマークで、2つのコンテキスト内設定でアプローチを評価します。
我々の結果は、RDDがタスクの複雑さが増加するにつれて、コンピューティングマッチの設定で他のメソッドを上回るが、計算上効率的であることを示しています。

要約(オリジナル)

Reasoning tasks are crucial in many domains, especially in science and engineering. Although large language models (LLMs) have made progress in reasoning tasks using techniques such as chain-of-thought and least-to-most prompting, these approaches still do not effectively scale to complex problems in either their performance or execution time. Moreover, they often require additional supervision for each new task, such as in-context examples. In this work, we introduce Recursive Decomposition with Dependencies (RDD), a scalable divide-and-conquer method for solving reasoning problems that requires less supervision than prior approaches. Our method can be directly applied to a new problem class even in the absence of any task-specific guidance. Furthermore, RDD supports sub-task dependencies, allowing for ordered execution of sub-tasks, as well as an error recovery mechanism that can correct mistakes made in previous steps. We evaluate our approach on two benchmarks with six difficulty levels each and in two in-context settings: one with task-specific examples and one without. Our results demonstrate that RDD outperforms other methods in a compute-matched setting as task complexity increases, while also being more computationally efficient.

arxiv情報

著者 Sergio Hernández-Gutiérrez,Minttu Alakuijala,Alexander V. Nikitin,Pekka Marttinen
発行日 2025-05-05 11:24:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Recursive Decomposition with Dependencies for Generic Divide-and-Conquer Reasoning はコメントを受け付けていません

Invoke Interfaces Only When Needed: Adaptive Invocation for Large Language Models in Question Answering

要約

大小の言語モデル(LMS)の共同パラダイムは、パフォーマンスとコストのバランスを効果的にバランスさせますが、その極めて重要な課題は、幻覚が小さなLMSで発生したときの呼び出しの瞬間を正確に特定することにあります。
以前の最適化の取り組みは、主にLMSの推論プロセスとは別のポスト処理技術に焦点を当てており、高い計算コストと限られた有効性をもたらしました。
この論文では、Attenhscoreと呼ばれる実用的な呼び出し評価メトリックを提案します。これは、小さなLMSの生成プロセス中の幻覚の蓄積と伝播を計算し、潜在的な推論エラーを継続的に増幅します。
検出しきい値を動的に調整することにより、大きなLMSのより正確なリアルタイムの呼び出しを実現します。
さらに、小さなLMSの限られた推論能力を考慮すると、不確実性を認識した知識の再編成を活用して、異なるテキストチャンクから重要な情報をよりよく把握するのを支援します。
広範な実験により、私たちのAttenhscoreは、特に複雑なクエリに対処する場合、複数のQAデータセットでリアルタイムの幻覚検出機能を強化する際に、ほとんどのベースラインを上回ることが明らかになりました。
さらに、当社の戦略により、さまざまな変圧器ベースのLMSに適応するための追加のモデルトレーニングと柔軟性を表示する必要性がなくなります。

要約(オリジナル)

The collaborative paradigm of large and small language models (LMs) effectively balances performance and cost, yet its pivotal challenge lies in precisely pinpointing the moment of invocation when hallucinations arise in small LMs. Previous optimization efforts primarily focused on post-processing techniques, which were separate from the reasoning process of LMs, resulting in high computational costs and limited effectiveness. In this paper, we propose a practical invocation evaluation metric called AttenHScore, which calculates the accumulation and propagation of hallucinations during the generation process of small LMs, continuously amplifying potential reasoning errors. By dynamically adjusting the detection threshold, we achieve more accurate real-time invocation of large LMs. Additionally, considering the limited reasoning capacity of small LMs, we leverage uncertainty-aware knowledge reorganization to assist them better capture critical information from different text chunks. Extensive experiments reveal that our AttenHScore outperforms most baseline in enhancing real-time hallucination detection capabilities across multiple QA datasets, especially when addressing complex queries. Moreover, our strategies eliminate the need for additional model training and display flexibility in adapting to various transformer-based LMs.

arxiv情報

著者 Jihao Zhao,Chunlai Zhou,Biao Qin
発行日 2025-05-05 01:45:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Invoke Interfaces Only When Needed: Adaptive Invocation for Large Language Models in Question Answering はコメントを受け付けていません

A Synergistic Framework of Nonlinear Acoustic Computing and Reinforcement Learning for Real-World Human-Robot Interaction

要約

このペーパーでは、非線形音響コンピューティングと強化学習を統合した新しいフレームワークを紹介し、複雑なノイズと反響の下で高度なヒトとロボットの相互作用を強化します。
物理的に情報に基づいた波動方程式(例:Westervelt、KZK)を活用すると、このアプローチは、高調波生成や衝撃形成などの高次現象を捉えています。
これらのモデルを補強学習駆動型制御ループに埋め込むことにより、システムは、マルチパス干渉と非定常ノイズを緩和するために、重要なパラメーター(吸収、ビームフォーミングなど)を適応的に最適化します。
遠距離場の局在化、弱い信号検出、多言語の音声認識を覆う実験的評価は、このハイブリッド戦略が従来の線形方法と純粋にデータ駆動型のベースラインを超え、実世界のシナリオを要求する上で優れた騒音抑制、最小限の潜在性、堅牢な精度を達成することを実現します。
提案されたシステムは、AIハードウェア、ロボット、マシンオーディション、人工オーディション、および脳マシンインターフェイスの幅広いアプリケーションの見通しを示しています。

要約(オリジナル)

This paper introduces a novel framework integrating nonlinear acoustic computing and reinforcement learning to enhance advanced human-robot interaction under complex noise and reverberation. Leveraging physically informed wave equations (e.g., Westervelt, KZK), the approach captures higher-order phenomena such as harmonic generation and shock formation. By embedding these models in a reinforcement learning-driven control loop, the system adaptively optimizes key parameters (e.g., absorption, beamforming) to mitigate multipath interference and non-stationary noise. Experimental evaluations-covering far-field localization, weak signal detection, and multilingual speech recognition-demonstrate that this hybrid strategy surpasses traditional linear methods and purely data-driven baselines, achieving superior noise suppression, minimal latency, and robust accuracy in demanding real-world scenarios. The proposed system demonstrates broad application prospects in AI hardware, robot, machine audition, artificial audition, and brain-machine interfaces.

arxiv情報

著者 Xiaoliang Chen,Xin Yu,Le Chang,Yunhe Huang,Jiashuai He,Shibo Zhang,Jin Li,Likai Lin,Ziyu Zeng,Xianling Tu,Shuyu Zhang
発行日 2025-05-04 06:03:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, cs.AI, cs.RO, I.2.8, physics.app-ph | A Synergistic Framework of Nonlinear Acoustic Computing and Reinforcement Learning for Real-World Human-Robot Interaction はコメントを受け付けていません

RoboPanoptes: The All-seeing Robot with Whole-body Dexterity

要約

全身の視力を通じて全身の器用さを達成する有能でありながら実用的なロボットシステムであるRobopanoptesを紹介します。
その全身の器用さにより、ロボットは、複数の接点を活用したり、制約されたスペースをナビゲートするなど、操作に全身表面を利用できます。
一方、全身ビジョンは、ロボットの表面に分布したカメラシステムを使用して、独自の環境状態の包括的な多様な視覚フィードバックを提供します。
その中核では、ロボパノプテスは、センサーの障害に回復力を維持しながら、分散カメラから情報を効率的に集約しながら、人間のデモから直接複雑な操作スキルを学習する全身視覚運動ポリシーを使用します。
これらの設計の側面は、新しい機能とタスクのロックを解除し、ロボパノプテが狭いスペースでボックスを解除し、複数または特大のオブジェクトを掃除し、散らかった環境でのマルチステップ積み込み、適応性と効率のベースラインを上回ることを可能にします。
結果は、https://robopanoptes.github.ioで最もよく表示されます。

要約(オリジナル)

We present RoboPanoptes, a capable yet practical robot system that achieves whole-body dexterity through whole-body vision. Its whole-body dexterity allows the robot to utilize its entire body surface for manipulation, such as leveraging multiple contact points or navigating constrained spaces. Meanwhile, whole-body vision uses a camera system distributed over the robot’s surface to provide comprehensive, multi-perspective visual feedback of its own and the environment’s state. At its core, RoboPanoptes uses a whole-body visuomotor policy that learns complex manipulation skills directly from human demonstrations, efficiently aggregating information from the distributed cameras while maintaining resilience to sensor failures. Together, these design aspects unlock new capabilities and tasks, allowing RoboPanoptes to unbox in narrow spaces, sweep multiple or oversized objects, and succeed in multi-step stowing in cluttered environments, outperforming baselines in adaptability and efficiency. Results are best viewed on https://robopanoptes.github.io.

arxiv情報

著者 Xiaomeng Xu,Dominik Bauer,Shuran Song
発行日 2025-05-04 09:07:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RoboPanoptes: The All-seeing Robot with Whole-body Dexterity はコメントを受け付けていません

ARTEMIS: Autoregressive End-to-End Trajectory Planning with Mixture of Experts for Autonomous Driving

要約

このペーパーでは、自己回帰の軌跡計画と混合物(MOE)を組み合わせたエンドツーエンドの自律運転フレームワークであるArtemisを紹介します。
従来のモジュラー方法はエラーの伝播に悩まされますが、既存のエンドツーエンドモデルは通常、環境の動的な変化を不十分にキャプチャする静的なワンショット推論パラダイムを採用しています。
Artemisは、軌道のウェイポイントを順次生成することにより異なる方法を採用し、重要な時間的依存関係を保存しながら、シーン固有のクエリを専門の専門家ネットワークに動的にルーティングします。
ガイダンス情報が曖昧な場合に遭遇する軌道の品質劣化の問題を効果的に緩和し、多様な駆動シナリオを処理する際に特異ネットワークアーキテクチャの固有の表現の制限を克服します。
さらに、混合物モデルのトレーニング速度を大幅に改善する軽量バッチリアルロケーション戦略を使用します。
NAVSIMデータセットでの実験を通じて、Artemisは優れた競争力のあるパフォーマンスを示し、ResNet-34バックボーンで87.0 PDMSと83.1 EPDMSを達成し、複数のメトリックで最先端のパフォーマンスを示します。

要約(オリジナル)

This paper presents ARTEMIS, an end-to-end autonomous driving framework that combines autoregressive trajectory planning with Mixture-of-Experts (MoE). Traditional modular methods suffer from error propagation, while existing end-to-end models typically employ static one-shot inference paradigms that inadequately capture the dynamic changes of the environment. ARTEMIS takes a different method by generating trajectory waypoints sequentially, preserves critical temporal dependencies while dynamically routing scene-specific queries to specialized expert networks. It effectively relieves trajectory quality degradation issues encountered when guidance information is ambiguous, and overcomes the inherent representational limitations of singular network architectures when processing diverse driving scenarios. Additionally, we use a lightweight batch reallocation strategy that significantly improves the training speed of the Mixture-of-Experts model. Through experiments on the NAVSIM dataset, ARTEMIS exhibits superior competitive performance, achieving 87.0 PDMS and 83.1 EPDMS with ResNet-34 backbone, demonstrates state-of-the-art performance on multiple metrics.

arxiv情報

著者 Renju Feng,Ning Xi,Duanfeng Chu,Rukang Wang,Zejian Deng,Anzheng Wang,Liping Lu,Jinxiang Wang,Yanjun Huang
発行日 2025-05-04 09:51:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ARTEMIS: Autoregressive End-to-End Trajectory Planning with Mixture of Experts for Autonomous Driving はコメントを受け付けていません

Enhancing Lidar Point Cloud Sampling via Colorization and Super-Resolution of Lidar Imagery

要約

LIDARテクノロジーの最近の進歩により、各ピクセル内の深さ、反射率、または近赤外光をエンコードすることにより、360度、低解像度の画像の生成が改善されました。
これらの画像により、カメラからLGB画像用に開発されたディープラーニング(DL)アプローチの適用が可能になり、Lidar-Cameraのキャリブレーションなどの他の努力を排除できます。
従来のRGB画像と比較して、LIDAR画像は、低光や霧のような天候などの不利な環境条件でより大きな堅牢性を示しています。
さらに、イメージング機能は、長い廊下など、ポイントクラウドの幾何学的情報が分解される可能性がある環境の課題に対処し、密なポイント雲が誤解を招く可能性があり、潜在的にドリフトエラーにつながる可能性があります。
したがって、このペーパーでは、Lidar画像のDLベースの色素化と超解像度技術を活用して、Lidar Point Cloudsから信頼できるサンプルを抽出して臭気測定推定を抽出する新しいフレームワークを提案します。
追加情報が濃縮された拡張されたLidar画像は、Keypoint検出の改善を容易にします。これは、より効果的なポイントクラウドダウンサンプリングのために採用されます。
提案された方法は、ポイントクラウド登録の精度を高め、不十分な幾何情報情報または誤解を招く余分なポイントから生じる不一致を軽減します。
実験結果は、私たちのアプローチが以前の方法を上回り、より少ないポイントを使用しながらより低い翻訳エラーと回転エラーを達成することを示しています。

要約(オリジナル)

Recent advancements in lidar technology have led to improved point cloud resolution as well as the generation of 360 degrees, low-resolution images by encoding depth, reflectivity, or near-infrared light within each pixel. These images enable the application of deep learning (DL) approaches, originally developed for RGB images from cameras to lidar-only systems, eliminating other efforts, such as lidar-camera calibration. Compared with conventional RGB images, lidar imagery demonstrates greater robustness in adverse environmental conditions, such as low light and foggy weather. Moreover, the imaging capability addresses the challenges in environments where the geometric information in point clouds may be degraded, such as long corridors, and dense point clouds may be misleading, potentially leading to drift errors. Therefore, this paper proposes a novel framework that leverages DL-based colorization and super-resolution techniques on lidar imagery to extract reliable samples from lidar point clouds for odometry estimation. The enhanced lidar images, enriched with additional information, facilitate improved keypoint detection, which is subsequently employed for more effective point cloud downsampling. The proposed method enhances point cloud registration accuracy and mitigates mismatches arising from insufficient geometric information or misleading extra points. Experimental results indicate that our approach surpasses previous methods, achieving lower translation and rotation errors while using fewer points.

arxiv情報

著者 Sier Ha,Honghao Du,Xianjia Yu,Tomi Westerlund
発行日 2025-05-04 09:57:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Enhancing Lidar Point Cloud Sampling via Colorization and Super-Resolution of Lidar Imagery はコメントを受け付けていません

Enhancing Safety Standards in Automated Systems Using Dynamic Bayesian Networks

要約

高速トラフィックのカットイン操作は、突然のブレーキと衝突につながる可能性のある重大な課題を引き起こし、安全で効率的な車線変更戦略を必要とします。
ダイナミックなベイジアンネットワーク(DBN)フレームワークを提案して、横方向の証拠を安全評価モデルと統合し、それによって車線の変化を予測し、安全なカットイン操作を効果的に確保します。
提案されたフレームワークは、動的なデータ処理と車両位置、横方向の速度、相対距離、および衝突時間(TTC)コンピューターの評価を通じて意思決定プロセスを促進する3つの重要な確率的仮説(横方向の証拠、横方向の安全性、および縦断的安全性)で構成されています。
他の従来のアプローチと比較したDBNモデルのパフォーマンスは、特に高速シナリオで競争力のあるパフォーマンスを維持しながら、クラッシュ削減の優れたパフォーマンスを示しています。
これにより、自動化された運転システムにおける堅牢でスケーラブルで効率的な安全性検証への道が開かれます。

要約(オリジナル)

Cut-in maneuvers in high-speed traffic pose critical challenges that can lead to abrupt braking and collisions, necessitating safe and efficient lane change strategies. We propose a Dynamic Bayesian Network (DBN) framework to integrate lateral evidence with safety assessment models, thereby predicting lane changes and ensuring safe cut-in maneuvers effectively. Our proposed framework comprises three key probabilistic hypotheses (lateral evidence, lateral safety, and longitudinal safety) that facilitate the decision-making process through dynamic data processing and assessments of vehicle positions, lateral velocities, relative distance, and Time-to-Collision (TTC) computations. The DBN model’s performance compared with other conventional approaches demonstrates superior performance in crash reduction, especially in critical high-speed scenarios, while maintaining a competitive performance in low-speed scenarios. This paves the way for robust, scalable, and efficient safety validation in automated driving systems.

arxiv情報

著者 Kranthi Kumar Talluri,Anders L. Madsen,Galia Weidl
発行日 2025-05-04 09:58:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Enhancing Safety Standards in Automated Systems Using Dynamic Bayesian Networks はコメントを受け付けていません

Simulation Based Control Architecture Using Webots and Simulink

要約

このペーパーでは、ロボットシステムの開発とテストのためにWebotsとSimulinkを統合するシミュレーションベースの制御アーキテクチャを紹介します。
3D物理ベースのシミュレーションと制御システム設計のためのシミュレーションにWebotsを使用して、リアルタイムテストとコントローラーの検証が効率的に達成されます。
提案されたアプローチは、初期の開発段階でのループ依存関係のハードウェアを削減することを目的としており、学術、産業、ロボットのアプリケーションに費用対効果の高いモジュール式制御フレームワークを提供します。

要約(オリジナル)

This paper presents a simulation based control architecture that integrates Webots and Simulink for the development and testing of robotic systems. Using Webots for 3D physics based simulation and Simulink for control system design, real time testing and controller validation are achieved efficiently. The proposed approach aims to reduce hardware in the loop dependency in early development stages, offering a cost effective and modular control framework for academic, industrial, and robotics applications.

arxiv情報

著者 Harun Kurt,Ahmet Cayir,Kadir Erkan
発行日 2025-05-04 12:17:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Simulation Based Control Architecture Using Webots and Simulink はコメントを受け付けていません