Remote Manipulation of Multiple Objects with Airflow Field Using Model-Based Learning Control

要約

非接触操作は、ロボット工学の有望な方法論であり、幅広い科学的および産業用途を提供します。
提案されているアプローチの中で、Airflowは、かなりの距離を越えて投影する能力と、さまざまな材料、サイズ、および形状のオブジェクトを作動させる柔軟性を際立たせています。
ただし、距離で気流フィールドを予測し、それらの内部のオブジェクトの動きを、非線形で確率的な性質のために有名な挑戦を予測します。
ここでは、表面でのリモートマルチオブジェクト操作のためのジェット誘発エアフローフィールドを使用したモデルベースの学習アプローチを提案します。
私たちのアプローチには、フィールドの分析モデル、学習オブジェクトダイナミクス、モデルベースのコントローラーが組み込まれています。
モデルは、指定されたジェット配向の無限面上の空気速度場を予測し、オブジェクトのダイナミクスは堅牢なシステム識別アルゴリズムを介して学習されます。
モデルベースのコントローラーを使用して、メータースケール距離で自動的かつリモートで、パスフォロー、集約、ソートなどのさまざまなタスクの単一オブジェクトと複数のオブジェクトの動きを制御できます。

要約(オリジナル)

Non-contact manipulation is a promising methodology in robotics, offering a wide range of scientific and industrial applications. Among the proposed approaches, airflow stands out for its ability to project across considerable distances and its flexibility in actuating objects of varying materials, sizes, and shapes. However, predicting airflow fields at a distance-and the motion of objects within them-remains notoriously challenging due to their nonlinear and stochastic nature. Here, we propose a model-based learning approach using a jet-induced airflow field for remote multi-object manipulation on a surface. Our approach incorporates an analytical model of the field, learned object dynamics, and a model-based controller. The model predicts an air velocity field over an infinite surface for a specified jet orientation, while the object dynamics are learned through a robust system identification algorithm. Using the model-based controller, we can automatically and remotely, at meter-scale distances, control the motion of single and multiple objects for different tasks, such as path-following, aggregating, and sorting.

arxiv情報

著者 Artur Kopitca,Shahriar Haeri,Quan Zhou
発行日 2025-05-15 12:21:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Remote Manipulation of Multiple Objects with Airflow Field Using Model-Based Learning Control はコメントを受け付けていません

Towards Safe Robot Foundation Models Using Inductive Biases

要約

安全性は、ロボットシステムの実際の展開の重要な要件です。
残念ながら、現在のロボット財団モデルは、さまざまなタスクにわたって有望な一般化機能を示していますが、長期運用を確保するための重要な側面である安全性に対処できません。
現在のロボット財団モデルは、デモンストレーションの十分に大きなデータセットから学習することにより、安全な行動が現れるべきであると想定しています。
ただし、このアプローチには2つの明確な大きな欠点があります。
第一に、監視された学習を使用して訓練された行動クローニングポリシーの正式な安全保証はありません。
第二に、安全上の制約に関する明示的な知識がなければ、ポリシーは、望ましい制約された動作を近似するために、不合理な数の追加デモを必要とする場合があります。
これらの重要な問題を解決するために、ATACOMを使用して、ロボット基礎モデルと幾何学誘導バイアスと組み合わせる方法を示します。これは、アクションの制約を実施することにより安全な状態遷移を保証する基礎ポリシーの後に配置された安全層です。
このアプローチにより、安全な行動の広範なデモンストレーションを提供することなく、安全のために特定の微調整を必要とせずに、ジェネラリスト政策の正式な安全保証を確保することができます。
私たちの実験は、私たちのアプローチは、無関係なオブジェクトとの望ましくない衝突を避ける古典的な操作タスクと、複雑なタスクや共同空間制約を尊重する高速軌道を生成できるロボットエアホッケー環境などの動的タスクの両方に有益であることを示しています。

要約(オリジナル)

Safety is a critical requirement for the real-world deployment of robotic systems. Unfortunately, while current robot foundation models show promising generalization capabilities across a wide variety of tasks, they fail to address safety, an important aspect for ensuring long-term operation. Current robot foundation models assume that safe behavior should emerge by learning from a sufficiently large dataset of demonstrations. However, this approach has two clear major drawbacks. Firstly, there are no formal safety guarantees for a behavior cloning policy trained using supervised learning. Secondly, without explicit knowledge of any safety constraints, the policy may require an unreasonable number of additional demonstrations to even approximate the desired constrained behavior. To solve these key issues, we show how we can instead combine robot foundation models with geometric inductive biases using ATACOM, a safety layer placed after the foundation policy that ensures safe state transitions by enforcing action constraints. With this approach, we can ensure formal safety guarantees for generalist policies without providing extensive demonstrations of safe behavior, and without requiring any specific fine-tuning for safety. Our experiments show that our approach can be beneficial both for classical manipulation tasks, where we avoid unwanted collisions with irrelevant objects, and for dynamic tasks, such as the robot air hockey environment, where we can generate fast trajectories respecting complex tasks and joint space constraints.

arxiv情報

著者 Maximilian Tölle,Theo Gruner,Daniel Palenicek,Tim Schneider,Jonas Günster,Joe Watson,Davide Tateo,Puze Liu,Jan Peters
発行日 2025-05-15 12:22:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Towards Safe Robot Foundation Models Using Inductive Biases はコメントを受け付けていません

Force-Driven Validation for Collaborative Robotics in Automated Avionics Testing

要約

Artoは、共同ロボット(コボット)と人工知能(AI)を組み合わせて、民間および軍事航空機の認証のための機能的テスト手順を自動化するプロジェクトです。
このホワイトペーパーでは、ディープラーニング(DL)および説明可能なAI(XAI)アプローチを提案し、Artoに相互作用分析機能を装備して、コックピットコンポーネントの操作を検証および検証します。
これらの相互作用中、力、トルク、エンドエフェクターのポーズが記録され、低性能コントローラーと埋め込み力トルクセンサー(FTS)によって引き起こされる障害をフィルタリングするために前処理されます。
畳み込みニューラルネットワーク(CNNS)は、失敗の原因を特定して報告すると同時に、コボットアクションを成功または失敗として分類します。
解釈可能性を向上させるために、視覚的な説明のためのXAIテクニックであるGrad Camが統合され、モデルの意思決定プロセスに関する洞察を提供します。
このアプローチは、自動化されたテストシステムの信頼性と信頼性を高め、テスト中に発生する可能性のあるエラーの診断と修正を促進します。

要約(オリジナル)

ARTO is a project combining collaborative robots (cobots) and Artificial Intelligence (AI) to automate functional test procedures for civilian and military aircraft certification. This paper proposes a Deep Learning (DL) and eXplainable AI (XAI) approach, equipping ARTO with interaction analysis capabilities to verify and validate the operations on cockpit components. During these interactions, forces, torques, and end effector poses are recorded and preprocessed to filter disturbances caused by low performance force controllers and embedded Force Torque Sensors (FTS). Convolutional Neural Networks (CNNs) then classify the cobot actions as Success or Fail, while also identifying and reporting the causes of failure. To improve interpretability, Grad CAM, an XAI technique for visual explanations, is integrated to provide insights into the models decision making process. This approach enhances the reliability and trustworthiness of the automated testing system, facilitating the diagnosis and rectification of errors that may arise during testing.

arxiv情報

著者 Pietro Dardano,Paolo Rocco,David Frisini
発行日 2025-05-15 12:32:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Force-Driven Validation for Collaborative Robotics in Automated Avionics Testing はコメントを受け付けていません

Quad-LCD: Layered Control Decomposition Enables Actuator-Feasible Quadrotor Trajectory Planning

要約

この作業では、モーター飽和制約を備えた四肢装置システムのデータ駆動型軌道生成に関する以前の作業からの貢献を専門としています。
モーターが四角体システムで飽和すると、クラッシュにつながる車両の「制御されていないドリフト」があります。
飽和に取り組むために、コントロール分解を適用し、低、中、高コストの参照軌跡で構成されるシミュレーションデータから追跡ペナルティを学びます。
私たちのアプローチは、シミュレーションの積極的な操作のベースラインと比較して、クラッシュ率を約49ドル\%$減らします。
CrazyFlieハードウェアプラットフォームでは、フライトの成功につながる実験を通じて実現可能性を示しています。
データ駆動型の方法に対する関心が高まっていることに動機付けられ、四肢装置計画への関心が高まって、ハードウェアプラットフォームの使いやすい抽象化を備えたオープンソースの軽量コードを提供します。

要約(オリジナル)

In this work, we specialize contributions from prior work on data-driven trajectory generation for a quadrotor system with motor saturation constraints. When motors saturate in quadrotor systems, there is an “uncontrolled drift’ of the vehicle that results in a crash. To tackle saturation, we apply a control decomposition and learn a tracking penalty from simulation data consisting of low, medium and high-cost reference trajectories. Our approach reduces crash rates by around $49\%$ compared to baselines on aggressive maneuvers in simulation. On the Crazyflie hardware platform, we demonstrate feasibility through experiments that lead to successful flights. Motivated by the growing interest in data-driven methods to quadrotor planning, we provide open-source lightweight code with an easy-to-use abstraction of hardware platforms.

arxiv情報

著者 Anusha Srikanthan,Hanli Zhang,Spencer Folk,Vijay Kumar,Nikolai Matni
発行日 2025-05-15 12:37:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Quad-LCD: Layered Control Decomposition Enables Actuator-Feasible Quadrotor Trajectory Planning はコメントを受け付けていません

Context-aware collaborative pushing of heavy objects using skeleton-based intention prediction

要約

物理的な人間とロボットの相互作用では、フォースフィードバックは、人間の意図をロボットに伝えるための最も一般的なセンシングモダリティでした。
人間がロボットを指示できるようにするために、アドミタンス制御で広く使用されています。
ただし、操作されたオブジェクトには必ずしも力センサーが装備されていないため、直接力フィードバックが利用できないシナリオでは使用できません。
この作業では、そのようなシナリオの1つを研究します。摩擦面での重い物体のプッシュと引っ張り、産業環境で一般的なタスクです。
人間がそれをするとき、彼らは口頭および非言語的な手がかりを通してコミュニケーションを取り、そこで体がポーズをとり、動きはしばしば言葉以上のものを伝えます。
指示されたグラフニューラルネットワークを使用して、非言語的協力的な物理的操作の人間の動きの意図を予測するために、時空間の人間の姿勢データを分析するための新しいコンテキスト対応アプローチを提案します。
私たちの実験は、ロボットの支援が人間の努力を大幅に減らし、タスクの効率を向上させることを示しています。
結果は、強制センシングの代わりに、またはロボットの意思決定と制御効率を向上させる、またはそれと一緒に、または代替として姿勢ベースのコンテキスト認識を組み込むことを示しています。

要約(オリジナル)

In physical human-robot interaction, force feedback has been the most common sensing modality to convey the human intention to the robot. It is widely used in admittance control to allow the human to direct the robot. However, it cannot be used in scenarios where direct force feedback is not available since manipulated objects are not always equipped with a force sensor. In this work, we study one such scenario: the collaborative pushing and pulling of heavy objects on frictional surfaces, a prevalent task in industrial settings. When humans do it, they communicate through verbal and non-verbal cues, where body poses, and movements often convey more than words. We propose a novel context-aware approach using Directed Graph Neural Networks to analyze spatio-temporal human posture data to predict human motion intention for non-verbal collaborative physical manipulation. Our experiments demonstrate that robot assistance significantly reduces human effort and improves task efficiency. The results indicate that incorporating posture-based context recognition, either together with or as an alternative to force sensing, enhances robot decision-making and control efficiency.

arxiv情報

著者 Gokhan Solak,Gustavo J. G. Lahr,Idil Ozdamar,Arash Ajoudani
発行日 2025-05-15 12:53:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Context-aware collaborative pushing of heavy objects using skeleton-based intention prediction はコメントを受け付けていません

SRT-H: A Hierarchical Framework for Autonomous Surgery via Language Conditioned Imitation Learning

要約

自律的なロボット手術に関する研究は、主に制御された環境での単純なタスクの自動化に焦点を当てています。
ただし、実際の外科的応用には、長時間の時間スケールにわたって器用な操作が必要でありながら、ヒト組織の多様な変動全体の一般化を要求します。
これらの課題は、既存のロジックベースまたは従来のエンドツーエンドの学習戦略を使用して対処することは依然として困難です。
このギャップを埋めるために、器用で長老の外科用タスクの階層的なフレームワークを提案します。
私たちの方法は、タスク計画のための高レベルのポリシーと、手術ロボットのタスク空間制御を生成するための低レベルのポリシーを採用しています。
高レベルのプランナーは、言語を使用したタスクを計画し、ロボットを粗いレベルで導くタスク固有または是正命令を作成します。
計画のモダリティとして言語を活用すると、直感的で一般化可能なインターフェイスが提供され、経験豊富な外科医が処置中にどのように電車に指示するかを反映しています。
複雑な低侵襲手術、胆嚢摘出術、および主要な設計の選択肢を評価するためのアブレーション研究を実施した、ex-vivo実験におけるフレームワークを検証します。
私たちのアプローチは、n = 8の異なる元生ビボ胆嚢にわたって100%の成功率を達成し、人間の介入なしで完全に自律的に動作します。
階層的アプローチは、現実的な外科的応用の非常に動的な環境で避けられない最適でない状態から回復するポリシーの能力を大幅に改善します。
この研究は、ステップレベルの自律性の最初の実証を表しており、臨床研究のための自律外科システムに対する重要なマイルストーンをマークしています。
外科的ロボット工学の一般化可能な自律性を進めることにより、私たちのアプローチは、現実の展開に近い分野をもたらします。

要約(オリジナル)

Research on autonomous robotic surgery has largely focused on simple task automation in controlled environments. However, real-world surgical applications require dexterous manipulation over extended time scales while demanding generalization across diverse variations in human tissue. These challenges remain difficult to address using existing logic-based or conventional end-to-end learning strategies. To bridge this gap, we propose a hierarchical framework for dexterous, long-horizon surgical tasks. Our method employs a high-level policy for task planning and a low-level policy for generating task-space controls for the surgical robot. The high-level planner plans tasks using language, producing task-specific or corrective instructions that guide the robot at a coarse level. Leveraging language as a planning modality offers an intuitive and generalizable interface, mirroring how experienced surgeons instruct traineers during procedures. We validate our framework in ex-vivo experiments on a complex minimally invasive procedure, cholecystectomy, and conduct ablative studies to assess key design choices. Our approach achieves a 100% success rate across n=8 different ex-vivo gallbladders, operating fully autonomously without human intervention. The hierarchical approach greatly improves the policy’s ability to recover from suboptimal states that are inevitable in the highly dynamic environment of realistic surgical applications. This work represents the first demonstration of step-level autonomy, marking a critical milestone toward autonomous surgical systems for clinical studies. By advancing generalizable autonomy in surgical robotics, our approach brings the field closer to real-world deployment.

arxiv情報

著者 Ji Woong Kim,Juo-Tung Chen,Pascal Hansen,Lucy X. Shi,Antony Goldenberg,Samuel Schmidgall,Paul Maria Scheikl,Anton Deguet,Brandon M. White,De Ru Tsai,Richard Cha,Jeffrey Jopling,Chelsea Finn,Axel Krieger
発行日 2025-05-15 13:04:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SRT-H: A Hierarchical Framework for Autonomous Surgery via Language Conditioned Imitation Learning はコメントを受け付けていません

pc-dbCBS: Kinodynamic Motion Planning of Physically-Coupled Robot Teams

要約

散らかった環境での物理的に結合されたマルチロボットシステムのモーション計画の問題は、その高次元のために困難です。
サンプリングベースのプランナーと軌道最適化を組み合わせた既存の方法は、最適ではない結果を生み出し、理論的保証がありません。
不連続に結合したCBSを厳格に結合したシステムに拡張する、いつでも運動力学的モーションプランナーである物理的に結合された不連続に結合された競合ベースの検索(PC-DBCBS)を提案します。
私たちのアプローチは、ロボット間の物理的な結合を含むTRIレベルの競合の検出と解像度のフレームワークを提案しています。
さらに、PC-DBCBは状態空間表現間で繰り返し交互に行われ、それにより、単一ロボットモーションプリミティブのみに依存しながら、確率的完全性と漸近最適性を維持します。
PC-DBCBSは、ケーブルが懸濁したペイロードとリジッドロッドにリンクされた微分駆動ロボットを運ぶマルチローターを含む25のシミュレーションと6つの現実世界の問題にわたって、最先端のベースラインと、順序の順序で計画時間を拡大しながら50〜60%高速なプランの旅行よりも最大92%多くのインスタンスを解きます。

要約(オリジナル)

Motion planning problems for physically-coupled multi-robot systems in cluttered environments are challenging due to their high dimensionality. Existing methods combining sampling-based planners with trajectory optimization produce suboptimal results and lack theoretical guarantees. We propose Physically-coupled discontinuity-bounded Conflict-Based Search (pc-dbCBS), an anytime kinodynamic motion planner, that extends discontinuity-bounded CBS to rigidly-coupled systems. Our approach proposes a tri-level conflict detection and resolution framework that includes the physical coupling between the robots. Moreover, pc-dbCBS alternates iteratively between state space representations, thereby preserving probabilistic completeness and asymptotic optimality while relying only on single-robot motion primitives. Across 25 simulated and six real-world problems involving multirotors carrying a cable-suspended payload and differential-drive robots linked by rigid rods, pc-dbCBS solves up to 92% more instances than a state-of-the-art baseline and plans trajectories that are 50-60% faster while reducing planning time by an order of magnitude.

arxiv情報

著者 Khaled Wahba,Wolfgang Hönig
発行日 2025-05-15 14:46:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | pc-dbCBS: Kinodynamic Motion Planning of Physically-Coupled Robot Teams はコメントを受け付けていません

NVSPolicy: Adaptive Novel-View Synthesis for Generalizable Language-Conditioned Policy Learning

要約

深い生成モデルの最近の進歩は、前例のないゼロショット一般化機能を示しており、構造化されていない環境でのロボット操作の大きな可能性を提供します。
シーンの部分的な観察を考えると、深い生成モデルは目に見えない領域を生成し、したがってより多くのコンテキストを提供し、目に見えない環境全体でロボットの能力を高めることができます。
ただし、生成された画像の視覚的アーティファクトとポリシー学習におけるマルチモーダル機能の非効率的な統合により、この方向は未解決の課題のままです。
適応性のあるノベルビュー合成モジュールを階層ポリシーネットワークと結びつける一般化可能な言語条件付きポリシー学習方法であるNVSpolicyを紹介します。
入力画像が与えられた場合、nvSpolicyは有益な視点を動的に選択し、視覚的コンテキストを豊かにするための適応型の視点画像を合成します。
不完全な合成画像の影響を緩和するために、視覚機能をセマンティック機能と残りの機能に解き放つサイクル一貫性のあるVAEメカニズムを採用します。
2つの機能は、それぞれ階層ポリシーネットワークに供給されます。セマンティック機能は、高レベルのメタスキル選択を通知し、残りの機能は低レベルのアクションの推定をガイドします。
さらに、提案された方法を効率的にするためのいくつかの実用的なメカニズムを提案します。
カルバンに関する広範な実験は、私たちの方法の最先端のパフォーマンスを示しています。
具体的には、すべてのタスクで平均成功率が90.4 \%であり、最近の方法を大きく上回っています。
アブレーション研究は、私たちの適応斬新視野合成パラダイムの重要性を確認しています。
さらに、実際のロボットプラットフォームでNVSpolicyを評価して、その実用的な適用性を実証します。

要約(オリジナル)

Recent advances in deep generative models demonstrate unprecedented zero-shot generalization capabilities, offering great potential for robot manipulation in unstructured environments. Given a partial observation of a scene, deep generative models could generate the unseen regions and therefore provide more context, which enhances the capability of robots to generalize across unseen environments. However, due to the visual artifacts in generated images and inefficient integration of multi-modal features in policy learning, this direction remains an open challenge. We introduce NVSPolicy, a generalizable language-conditioned policy learning method that couples an adaptive novel-view synthesis module with a hierarchical policy network. Given an input image, NVSPolicy dynamically selects an informative viewpoint and synthesizes an adaptive novel-view image to enrich the visual context. To mitigate the impact of the imperfect synthesized images, we adopt a cycle-consistent VAE mechanism that disentangles the visual features into the semantic feature and the remaining feature. The two features are then fed into the hierarchical policy network respectively: the semantic feature informs the high-level meta-skill selection, and the remaining feature guides low-level action estimation. Moreover, we propose several practical mechanisms to make the proposed method efficient. Extensive experiments on CALVIN demonstrate the state-of-the-art performance of our method. Specifically, it achieves an average success rate of 90.4\% across all tasks, greatly outperforming the recent methods. Ablation studies confirm the significance of our adaptive novel-view synthesis paradigm. In addition, we evaluate NVSPolicy on a real-world robotic platform to demonstrate its practical applicability.

arxiv情報

著者 Le Shi,Yifei Shi,Xin Xu,Tenglong Liu,Junhua Xi,Chengyuan Chen
発行日 2025-05-15 14:51:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | NVSPolicy: Adaptive Novel-View Synthesis for Generalizable Language-Conditioned Policy Learning はコメントを受け付けていません

Internal State Estimation in Groups via Active Information Gathering

要約

人格特性や行動パターンなどの人間の内部状態を正確に推定することは、特にグループ設定での人間とロボットの相互作用の有効性を高めるために重要です。
これらの洞察は、社会的ナビゲーションから自閉症診断に至るまでのアプリケーションの重要です。
ただし、以前の方法はスケーラビリティと受動的観測によって制限されているため、複雑で多人の設定でのリアルタイムの推定が困難になります。
この作業では、自閉症スペクトラム障害(ASD)に関連する用途に焦点を当てた、グループでの積極的な人格推定の実用的な方法を提案します。
私たちの方法は、Eysenck 3-Factor理論に基づいた人格条件付きの行動モデルと、後退する馬のプランナーを通して人間の行動を引き起こすアクティブなロボット情報収集ポリシーを組み合わせています。
人間の人格についてのロボットの信念は、ベイジアン推論によって更新されます。
シミュレーション、典型的な成人を使用したユーザー研究、およびASDの参加者を含む予備実験を通じて、アプローチの有効性を実証します。
私たちの結果は、私たちの方法が数十人の人間にスケーリングし、人格予測の誤差を29.2%、不確実性をシミュレーションで79.9%減らすことができることを示しています。
典型的な大人を対象としたユーザー研究は、複雑な性格分布全体で一般化する方法の能力を確認しています。
さらに、自閉症関連のシナリオでの応用を調査し、この方法が神経型と自閉症の行動の違いを特定し、ASDの診断の可能性を強調できることを示しています。
結果は、私たちのフレームワークが将来のASD固有の介入の基盤として機能することを示唆しています。

要約(オリジナル)

Accurately estimating human internal states, such as personality traits or behavioral patterns, is critical for enhancing the effectiveness of human-robot interaction, particularly in group settings. These insights are key in applications ranging from social navigation to autism diagnosis. However, prior methods are limited by scalability and passive observation, making real-time estimation in complex, multi-human settings difficult. In this work, we propose a practical method for active human personality estimation in groups, with a focus on applications related to Autism Spectrum Disorder (ASD). Our method combines a personality-conditioned behavior model, based on the Eysenck 3-Factor theory, with an active robot information gathering policy that triggers human behaviors through a receding-horizon planner. The robot’s belief about human personality is then updated via Bayesian inference. We demonstrate the effectiveness of our approach through simulations, user studies with typical adults, and preliminary experiments involving participants with ASD. Our results show that our method can scale to tens of humans and reduce personality prediction error by 29.2% and uncertainty by 79.9% in simulation. User studies with typical adults confirm the method’s ability to generalize across complex personality distributions. Additionally, we explore its application in autism-related scenarios, demonstrating that the method can identify the difference between neurotypical and autistic behavior, highlighting its potential for diagnosing ASD. The results suggest that our framework could serve as a foundation for future ASD-specific interventions.

arxiv情報

著者 Xuebo Ji,Zherong Pan,Xifeng Gao,Lei Yang,Xinxin Du,Kaiyun Li,Yongjin Liu,Wenping Wang,Changhe Tu,Jia Pan
発行日 2025-05-15 15:35:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Internal State Estimation in Groups via Active Information Gathering はコメントを受け付けていません

AORRTC: Almost-Surely Asymptotically Optimal Planning with RRT-Connect

要約

高品質のソリューションを迅速に見つけることは、モーション計画における重要な目的です。
これは、高度のロボットに特に当てはまります。
満足のいくプランナーは伝統的に実行可能なソリューションを迅速に発見していましたが、最適性について保証は提供されませんが、ほぼ漸近的に最適な(A.S.A.O.)プランナーは、最適なソリューションへの収束に確率的保証を持っていますが、より計算的に高価です。
このペーパーでは、AO-Xメタアルゴリズムを使用して、満足のいくRRTコネクトプランナーを最適な計画に拡張します。
結果として得られる漸近的に最適なRRTコネクト(AORRTC)は、RRTコネクトと同様の時間で初期ソリューションを見つけ、追加の計画時間を使用していつでも最適なソリューションに向かって収束します。
確率的に完全であり、A.S.A.O。
Aorrtcは、MotionBenchMaker DatasetでPanda(7 DOF)とFetch(8 DOF)ロボットアームでテストされました。
これらの実験は、AORRTCがRRT接続と同じくらい速く、テストした最先端のA.S.A.O.
より良いソリューションに収束しながら、より速いアルゴリズム。
Aorrtcは、他のA.S.A.O.
プランナーは、一貫して数秒でソリューションを見つけることができませんでした。
このパフォーマンスは、単一命令/複数のデータ(SIMD)加速の両方で実証されました。

要約(オリジナル)

Finding high-quality solutions quickly is an important objective in motion planning. This is especially true for high-degree-of-freedom robots. Satisficing planners have traditionally found feasible solutions quickly but provide no guarantees on their optimality, while almost-surely asymptotically optimal (a.s.a.o.) planners have probabilistic guarantees on their convergence towards an optimal solution but are more computationally expensive. This paper uses the AO-x meta-algorithm to extend the satisficing RRT-Connect planner to optimal planning. The resulting Asymptotically Optimal RRT-Connect (AORRTC) finds initial solutions in similar times as RRT-Connect and uses any additional planning time to converge towards the optimal solution in an anytime manner. It is proven to be probabilistically complete and a.s.a.o. AORRTC was tested with the Panda (7 DoF) and Fetch (8 DoF) robotic arms on the MotionBenchMaker dataset. These experiments show that AORRTC finds initial solutions as fast as RRT-Connect and faster than the tested state-of-the-art a.s.a.o. algorithms while converging to better solutions faster. AORRTC finds solutions to difficult high-DoF planning problems in milliseconds where the other a.s.a.o. planners could not consistently find solutions in seconds. This performance was demonstrated both with and without single instruction/multiple data (SIMD) acceleration.

arxiv情報

著者 Tyler Wilson,Wil Thomason,Zachary Kingston,Jonathan Gammell
発行日 2025-05-15 17:53:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AORRTC: Almost-Surely Asymptotically Optimal Planning with RRT-Connect はコメントを受け付けていません