LLM-as-BT-Planner: Leveraging LLMs for Behavior Tree Generation in Robot Task Planning

要約

ロボットアセンブリタスクは、長い地平線の性質と複雑な部分関係のために、オープンな挑戦のままです。
動作ツリー(BTS)は、モジュール性と柔軟性のためにロボットタスク計画でますます使用されていますが、手動でそれらを作成することは努力集約的です。
大規模な言語モデル(LLM)は最近、アクションシーケンスを生成するためのロボットタスク計画に適用されていますが、BTSを生成する能力は完全に調査されていません。
この目的のために、LLM-As-BT-Plannerを提案します。これは、ロボットアセンブリタスク計画におけるBT生成にLLMを活用する新しいフレームワークです。
BT形式でタスク計画を作成するためにLLMの自然言語処理と推論機能を利用するために、4つのコンテキスト学習方法が導入され、堅牢性と包括性を確保しながら手動の努力を削減します。
さらに、同じタスクで微調整された小型LLMのパフォーマンスを評価します。
シミュレートされた設定と実世界の両方の設定での実験は、私たちのフレームワークがLLMSのBTSを生成する能力を高め、コンテキスト内学習と監視された微調整を通じて成功率を向上させることを示しています。

要約(オリジナル)

Robotic assembly tasks remain an open challenge due to their long horizon nature and complex part relations. Behavior trees (BTs) are increasingly used in robot task planning for their modularity and flexibility, but creating them manually can be effort-intensive. Large language models (LLMs) have recently been applied to robotic task planning for generating action sequences, yet their ability to generate BTs has not been fully investigated. To this end, we propose LLM-as-BT-Planner, a novel framework that leverages LLMs for BT generation in robotic assembly task planning. Four in-context learning methods are introduced to utilize the natural language processing and inference capabilities of LLMs for producing task plans in BT format, reducing manual effort while ensuring robustness and comprehensibility. Additionally, we evaluate the performance of fine-tuned smaller LLMs on the same tasks. Experiments in both simulated and real-world settings demonstrate that our framework enhances LLMs’ ability to generate BTs, improving success rate through in-context learning and supervised fine-tuning.

arxiv情報

著者 Jicong Ao,Fan Wu,Yansong Wu,Abdalla Swikir,Sami Haddadin
発行日 2025-06-18 09:29:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | LLM-as-BT-Planner: Leveraging LLMs for Behavior Tree Generation in Robot Task Planning はコメントを受け付けていません

An Actionable Hierarchical Scene Representation Enhancing Autonomous Inspection Missions in Unknown Environments

要約

この記事では、マルチモーダルミッションプランナー、The Flie:Firs-lookベースの検査プランナーと完全に統合された新しい実用的な階層シーングラフである層状セマンティックグラフ(LSG)を紹介します。
この作品の斬新さは、直感的で多解像度のシーン表現を維持するタスクに対処することを目指していることに起因し、同時に、未知の環境における未知の未知のターゲットの継続的な検査ミッション中に計画とシーンの理解のための扱いやすい基盤を提供します。
提案されているLSGスキームは、抽象化された概念が統合されたフリープランナーの機能に基づいて、抽象的な概念を抽象化した抽象化の複数のレイヤーで、ローカルにネストされた階層グラフで構成されています。
さらに、LSGは、階層表現内の目的のセマンティック要素の抽出と局在化を提供するリアルタイムセマンティックセグメンテーションモデルをカプセル化します。
これにより、検査プランナーの能力が拡張され、LSGを活用して、特定の対象の意味を検査するための情報に基づいた決定を下すことができます。
また、LSGの階層的およびセマンティックなパス計画機能も強調しています。これにより、未知の環境での人間のオペレーターの状況認識を改善することで、検査ミッションを拡張できます。
提案されたスキームの妥当性は、シミュレーションにおける提案されたアーキテクチャの広範な評価、および都市の屋外環境環境におけるボストンダイナミクススポットクアッドロボットでの実験的なフィールド展開によって証明されています。

要約(オリジナル)

In this article, we present the Layered Semantic Graphs (LSG), a novel actionable hierarchical scene graph, fully integrated with a multi-modal mission planner, the FLIE: A First-Look based Inspection and Exploration planner. The novelty of this work stems from aiming to address the task of maintaining an intuitive and multi-resolution scene representation, while simultaneously offering a tractable foundation for planning and scene understanding during an ongoing inspection mission of apriori unknown targets-of-interest in an unknown environment. The proposed LSG scheme is composed of locally nested hierarchical graphs, at multiple layers of abstraction, with the abstract concepts grounded on the functionality of the integrated FLIE planner. Furthermore, LSG encapsulates real-time semantic segmentation models that offer extraction and localization of desired semantic elements within the hierarchical representation. This extends the capability of the inspection planner, which can then leverage LSG to make an informed decision to inspect a particular semantic of interest. We also emphasize the hierarchical and semantic path-planning capabilities of LSG, which could extend inspection missions by improving situational awareness for human operators in an unknown environment. The validity of the proposed scheme is proven through extensive evaluations of the proposed architecture in simulations, as well as experimental field deployments on a Boston Dynamics Spot quadruped robot in urban outdoor environment settings.

arxiv情報

著者 Vignesh Kottayam Viswanathan,Mario Alberto Valdes Saucedo,Sumeet Gajanan Satpute,Christoforos Kanellakis,George Nikolakopoulos
発行日 2025-06-18 09:47:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | An Actionable Hierarchical Scene Representation Enhancing Autonomous Inspection Missions in Unknown Environments はコメントを受け付けていません

Learning the Geometric Mechanics of Robot Motion Using Gaussian Mixtures

要約

幾何メカニクスの原理を使用して構築されたロボットモーションのデータ駆動型モデルは、さまざまなロボットのロボットモーションの有用な予測を生成することが示されています。
有用な数のDOFを備えたロボットの場合、これらの幾何学的メカニックモデルは歩行の近くでのみ構築できます。
ここでは、ガウス混合モデル(GMM)を、幾何学的メカニクスの運動マップ」の構造を学習し、以前に公開された方法と比較した場合の予測品質のかなりの改善を実証する多様な学習の形としてどのように使用できるかを示します。
[ii]周期的な歩行データだけでなく、任意のモーションデータセットに適用できるメソッド。
[iii]運動マップが線形であることが知られている場所での外挿を促進するためにデータセットを前処理する方法。
私たちの結果は、データ駆動型の幾何学的運動モデルが役立つかもしれない場所に適用できます。

要約(オリジナル)

Data-driven models of robot motion constructed using principles from Geometric Mechanics have been shown to produce useful predictions of robot motion for a variety of robots. For robots with a useful number of DoF, these geometric mechanics models can only be constructed in the neighborhood of a gait. Here we show how Gaussian Mixture Models (GMM) can be used as a form of manifold learning that learns the structure of the Geometric Mechanics ‘motility map’ and demonstrate: [i] a sizable improvement in prediction quality when compared to the previously published methods; [ii] a method that can be applied to any motion dataset and not only periodic gait data; [iii] a way to pre-process the data-set to facilitate extrapolation in places where the motility map is known to be linear. Our results can be applied anywhere a data-driven geometric motion model might be useful.

arxiv情報

著者 Ruizhen Hu,Shai Revzen
発行日 2025-06-18 10:10:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Learning the Geometric Mechanics of Robot Motion Using Gaussian Mixtures はコメントを受け付けていません

Offensive Robot Cybersecurity

要約

攻撃的なロボットサイバーセキュリティは、自動化によって力を与えられる攻撃的なセキュリティ方法を提唱することにより、画期的なアプローチを導入します。
攻撃者の戦術を理解し、事前に脆弱性を特定して効果的な防御を開発し、それによってロボットのセキュリティ姿勢を改善する必要性を強調しています。
この論文は、脆弱性の識別と搾取プロセスを合理化するために機械学習とゲーム理論を使用して、10年のロボット学体験を活用しています。
本質的に、論文はロボットアーキテクチャとサイバーセキュリティの間の深いつながりを明らかにし、ロボット工学の設計と創造の側面が攻撃に対する保護に深く絡み合っていることを強調しています。
この二重性 – ロボットの動作と能力を形成するアーキテクチャは、攻撃的および防御的なサイバーセキュリティ戦略を通じて防御メカニズムを必要とするため、独自の平衡を生み出します。
Approaching cybersecurity with a dual perspective of defense and attack, rooted in an understanding of systems architecture, has been pivotal.
倫理的考慮事項、セキュリティツールの開発、ロボットソフトウェア、ハードウェア、業界の展開に対するサイバー攻撃の実行などの包括的な分析を通じて、この論文はサイバーセキュリティ認知エンジンの新しいアーキテクチャを提案しています。
高度なゲーム理論と機械学習を搭載したこれらのエンジンは、ロボットの自律的な攻撃的なサイバーセキュリティ戦略への道を開き、自己防衛ロボットシステムへの大きな変化を示しています。
この研究は、ロボットサイバーセキュリティを強化する際の攻撃的な措置の重要性を強調するだけでなく、ロボットがサイバーの脅威に復元力があるだけでなく、自律的に自分自身を保護する能力がある将来の進歩の段階を設定します。

要約(オリジナル)

Offensive Robot Cybersecurity introduces a groundbreaking approach by advocating for offensive security methods empowered by means of automation. It emphasizes the necessity of understanding attackers’ tactics and identifying vulnerabilities in advance to develop effective defenses, thereby improving robots’ security posture. This thesis leverages a decade of robotics experience, employing Machine Learning and Game Theory to streamline the vulnerability identification and exploitation process. Intrinsically, the thesis uncovers a profound connection between robotic architecture and cybersecurity, highlighting that the design and creation aspect of robotics deeply intertwines with its protection against attacks. This duality — whereby the architecture that shapes robot behavior and capabilities also necessitates a defense mechanism through offensive and defensive cybersecurity strategies — creates a unique equilibrium. Approaching cybersecurity with a dual perspective of defense and attack, rooted in an understanding of systems architecture, has been pivotal. Through comprehensive analysis, including ethical considerations, the development of security tools, and executing cyber attacks on robot software, hardware, and industry deployments, this thesis proposes a novel architecture for cybersecurity cognitive engines. These engines, powered by advanced game theory and machine learning, pave the way for autonomous offensive cybersecurity strategies for robots, marking a significant shift towards self-defending robotic systems. This research not only underscores the importance of offensive measures in enhancing robot cybersecurity but also sets the stage for future advancements where robots are not just resilient to cyber threats but are equipped to autonomously safeguard themselves.

arxiv情報

著者 Víctor Mayoral-Vilches
発行日 2025-06-18 10:49:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.RO | Offensive Robot Cybersecurity はコメントを受け付けていません

PP-Tac: Paper Picking Using Tactile Feedback in Dexterous Robotic Hands

要約

ロボットは、人間の仲間としてますます想定されており、しばしば変形可能なオブジェクトを操作することを伴う日常のタスクを支援しています。
ロボットハードウェアと具体化されたAIの最近の進歩により機能が拡大していますが、現在のシステムは、紙や布などの薄くて平らで、変形可能なオブジェクトの処理に苦労しています。
この制限は、多様なオブジェクトの外観の下での堅牢な状態推定に適した知覚技術の欠如と、適切な把握動作を生成するための計画技術がないことから生じます。
これらのギャップを埋めるために、このペーパーでは、紙のようなオブジェクトを拾うためのロボットシステムであるPP-TACを紹介します。
PP-TACは、高解像度の全方向性触覚センサー\ Sensornameを備えたマルチフィンガーのロボットハンドを備えています。
このハードウェア構成により、リアルタイムのスリップ検出と、そのようなスリップを軽減するオンライン摩擦力制御が可能になります。
さらに、把握モーション生成は、最初に指のピンチモーションのデータセットを構築する軌道合成パイプラインを通じて達成されます。
このデータセットに基づいて、拡散ベースのポリシーは、ハンドアームロボットシステムを制御するためにトレーニングされています。
実験は、PP-TACがさまざまな材料、厚さ、剛性の紙のようなオブジェクトを効果的に把握し、87.5 \%の全体的な成功率を達成できることを示しています。
私たちの知る限り、この作品は、触覚の器用な手を使用して紙のような変形可能なオブジェクトを把握する最初の試みです。
当社のプロジェクトWebページは、https://peilin-666.github.io/projects/pp-tac/にあります。

要約(オリジナル)

Robots are increasingly envisioned as human companions, assisting with everyday tasks that often involve manipulating deformable objects. Although recent advances in robotic hardware and embodied AI have expanded their capabilities, current systems still struggle with handling thin, flat, and deformable objects such as paper and fabric. This limitation arises from the lack of suitable perception techniques for robust state estimation under diverse object appearances, as well as the absence of planning techniques for generating appropriate grasp motions. To bridge these gaps, this paper introduces PP-Tac, a robotic system for picking up paper-like objects. PP-Tac features a multi-fingered robotic hand with high-resolution omnidirectional tactile sensors \sensorname. This hardware configuration enables real-time slip detection and online frictional force control that mitigates such slips. Furthermore, grasp motion generation is achieved through a trajectory synthesis pipeline, which first constructs a dataset of finger’s pinching motions. Based on this dataset, a diffusion-based policy is trained to control the hand-arm robotic system. Experiments demonstrate that PP-Tac can effectively grasp paper-like objects of varying material, thickness, and stiffness, achieving an overall success rate of 87.5\%. To our knowledge, this work is the first attempt to grasp paper-like deformable objects using a tactile dexterous hand. Our project webpage can be found at: https://peilin-666.github.io/projects/PP-Tac/

arxiv情報

著者 Pei Lin,Yuzhe Huang,Wanlin Li,Jianpeng Ma,Chenxi Xiao,Ziyuan Jiao
発行日 2025-06-18 10:52:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | PP-Tac: Paper Picking Using Tactile Feedback in Dexterous Robotic Hands はコメントを受け付けていません

Comparison of Innovative Strategies for the Coverage Problem: Path Planning, Search Optimization, and Applications in Underwater Robotics

要約

水中ロボットを含む多くのアプリケーションでは、カバレッジの問題では、冗長性を最小限に抑え、障害を回避しながら、定義された領域を体系的に探索するために自律的な車両が必要です。
このペーパーでは、特に安全なナビゲーションを確保しながら放射性源を検出する確率を最大化するために、水中グライダーの効率を高めるためのカバレッジパス計画戦略を調査します。
3つのパスプランニングアプローチを評価します:巡回セールスマンの問題(TSP)、最小スパニングツリー(MST)、および最適制御問題(OCP)。
シミュレーションはMATLABで実施され、処理時間、覆われていない領域、経路の長さ、および移動時間を比較しました。
結果は、トラバーサル時間が制約されている場合にOCPが好ましいことを示していますが、計算コストが大幅に高くなります。
逆に、MSTベースのアプローチは、より高速ではあるが最適ではないソリューションを提供します。
これらの調査結果は、ミッションの優先順位に基づいて適切なアルゴリズムを選択し、効率のバランスと計算可能性に基づいて選択する洞察を提供します。

要約(オリジナル)

In many applications, including underwater robotics, the coverage problem requires an autonomous vehicle to systematically explore a defined area while minimizing redundancy and avoiding obstacles. This paper investigates coverage path planning strategies to enhance the efficiency of underwater gliders, particularly in maximizing the probability of detecting a radioactive source while ensuring safe navigation. We evaluate three path-planning approaches: the Traveling Salesman Problem (TSP), Minimum Spanning Tree (MST), and Optimal Control Problem (OCP). Simulations were conducted in MATLAB, comparing processing time, uncovered areas, path length, and traversal time. Results indicate that OCP is preferable when traversal time is constrained, although it incurs significantly higher computational costs. Conversely, MST-based approaches provide faster but less optimal solutions. These findings offer insights into selecting appropriate algorithms based on mission priorities, balancing efficiency and computational feasibility.

arxiv情報

著者 Ahmed Ibrahim,Francisco F. C. Rego,Éric Busvelle
発行日 2025-06-18 11:46:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Comparison of Innovative Strategies for the Coverage Problem: Path Planning, Search Optimization, and Applications in Underwater Robotics はコメントを受け付けていません

Efficient Navigation Among Movable Obstacles using a Mobile Manipulator via Hierarchical Policy Learning

要約

モバイルマニピュレーターを使用して、可動障害物(NAMO)の効率的なナビゲーションのための階層補強学習(HRL)フレームワークを提案します。
私たちのアプローチは、相互作用ベースの障害物特性の推定と構造化されたプッシュ戦略を組み合わせており、事前に計画されたグローバルパスを順守しながら、予期せぬ障害の動的操作を促進します。
高レベルのポリシーは、環境の制約とパス追跡目標を考慮するプッシュコマンドを生成し、低レベルのポリシーは、調整された全身運動を通じてこれらのコマンドを正確かつ安定に実行します。
包括的なシミュレーションベースの実験は、ベースラインと比較して、より高い成功率、経路の長さの短縮、目標測定時間の短縮など、NAMOタスクの実行の改善を示しています。
さらに、アブレーション研究は各コンポーネントの有効性を評価しますが、定性分析では、リアルタイムの障害物特性推定の精度と信頼性をさらに検証します。

要約(オリジナル)

We propose a hierarchical reinforcement learning (HRL) framework for efficient Navigation Among Movable Obstacles (NAMO) using a mobile manipulator. Our approach combines interaction-based obstacle property estimation with structured pushing strategies, facilitating the dynamic manipulation of unforeseen obstacles while adhering to a pre-planned global path. The high-level policy generates pushing commands that consider environmental constraints and path-tracking objectives, while the low-level policy precisely and stably executes these commands through coordinated whole-body movements. Comprehensive simulation-based experiments demonstrate improvements in performing NAMO tasks, including higher success rates, shortened traversed path length, and reduced goal-reaching times, compared to baselines. Additionally, ablation studies assess the efficacy of each component, while a qualitative analysis further validates the accuracy and reliability of the real-time obstacle property estimation.

arxiv情報

著者 Taegeun Yang,Jiwoo Hwang,Jeil Jeong,Minsung Yoon,Sung-Eui Yoon
発行日 2025-06-18 11:49:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Efficient Navigation Among Movable Obstacles using a Mobile Manipulator via Hierarchical Policy Learning はコメントを受け付けていません

Semantic-Geometric-Physical-Driven Robot Manipulation Skill Transfer via Skill Library and Tactile Representation

要約

非構造化された環境で操作できる一般的なロボットシステムの開発は、特に関係するタスクは通常、長老で豊富な接触であり、さまざまなタスクシナリオにわたって効率的なスキル転送を必要とするため、重要な課題です。
これらの課題に対処するために、知識グラフベースのスキルライブラリ構築方法を提案します。
この方法は、それぞれ「タスクグラフ」と「シーングラフ」を使用して操作知識を階層的に整理し、それぞれタスク固有およびシーン固有の情報を表します。
さらに、「状態グラフ」を導入して、高レベルのタスク計画と低レベルのシーン情報との相互作用を促進します。
この基盤に基づいて、スキルライブラリと触覚表現に基づいた新しい階層的スキル移転フレームワークをさらに提案します。これは、スキル転送のための高レベルの推論と実行の低レベルの精度を統合します。
タスクレベルでは、大規模な言語モデル(LLM)を利用し、コンテキスト学習を4段階のチェーンと組み合わせて、サブタスクシーケンス転送を実現するためにパラダイムを促します。
モーションレベルでは、スキルライブラリとヒューリスティックパス計画アルゴリズムに基づいて、適応軌道転送方法を開発します。
物理レベルでは、触覚表現に基づいた適応輪郭抽出と姿勢知覚方法を提案します。
この方法は、視覚触覚画像からの高精度の輪郭情報と姿勢情報を動的に取得し、接触位置や姿勢などのパラメーターを調整して、新しい環境で転送されたスキルの有効性を確保します。
実験は、さまざまなタスクシナリオにわたる提案された方法のスキル転送と適応性の能力を示しています。
プロジェクトWebサイト:https://github.com/mingchaoqi/skill_transfer

要約(オリジナル)

Developing general robotic systems capable of manipulating in unstructured environments is a significant challenge, particularly as the tasks involved are typically long-horizon and rich-contact, requiring efficient skill transfer across different task scenarios. To address these challenges, we propose knowledge graph-based skill library construction method. This method hierarchically organizes manipulation knowledge using ‘task graph’ and ‘scene graph’ to represent task-specific and scene-specific information, respectively. Additionally, we introduce ‘state graph’ to facilitate the interaction between high-level task planning and low-level scene information. Building upon this foundation, we further propose a novel hierarchical skill transfer framework based on the skill library and tactile representation, which integrates high-level reasoning for skill transfer and low-level precision for execution. At the task level, we utilize large language models (LLMs) and combine contextual learning with a four-stage chain-of-thought prompting paradigm to achieve subtask sequence transfer. At the motion level, we develop an adaptive trajectory transfer method based on the skill library and the heuristic path planning algorithm. At the physical level, we propose an adaptive contour extraction and posture perception method based on tactile representation. This method dynamically acquires high-precision contour and posture information from visual-tactile images, adjusting parameters such as contact position and posture to ensure the effectiveness of transferred skills in new environments. Experiments demonstrate the skill transfer and adaptability capabilities of the proposed methods across different task scenarios. Project website: https://github.com/MingchaoQi/skill_transfer

arxiv情報

著者 Mingchao Qi,Yuanjin Li,Xing Liu,Zhengxiong Liu,Panfeng Huang
発行日 2025-06-18 13:10:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Semantic-Geometric-Physical-Driven Robot Manipulation Skill Transfer via Skill Library and Tactile Representation はコメントを受け付けていません

Model Predictive Path-Following Control for a Quadrotor

要約

ドローン補助プロセスの自動化は複雑なタスクです。
多くのソリューションは軌道の生成と追跡に依存していますが、対照的に、パスフォローコントロールは特に有望なアプローチであり、ドローンや他の車両のタスクを自動化するための直感的で自然なアプローチを提供します。
パスフォローの問題に対するさまざまな解決策が提案されていますが、それらのほとんどは状態と入力の制約を明示的に処理する能力を欠いているか、保守的な2段階のアプローチで策定されているか、線形システムにのみ適用されます。
これらの課題に対処するために、このペーパーはモデル予測制御ベースのパスフォローフローワークに基づいて構築され、ハードウェア実験で調査されたCrazyFlie四重装置にアプリケーションを拡張します。
基礎となる姿勢コントローラーを含むカスケード制御構造は、四角体制御の挑戦的なリアルタイム需要を満たすために、モデル予測パスフォローコントロール定式化に含まれています。
提案された方法の有効性は、著者の知識の最大限を表す現実世界の実験を通じて実証されており、このMPCベースのパスフォロー化アプローチの新しい応用です。
さらに、元の方法の拡張として、パスの正確なフォローが過度に制限されている場合にパスの逸脱を可能にするために、廊下のパスフォローするアプローチが提示されます。

要約(オリジナル)

Automating drone-assisted processes is a complex task. Many solutions rely on trajectory generation and tracking, whereas in contrast, path-following control is a particularly promising approach, offering an intuitive and natural approach to automate tasks for drones and other vehicles. While different solutions to the path-following problem have been proposed, most of them lack the capability to explicitly handle state and input constraints, are formulated in a conservative two-stage approach, or are only applicable to linear systems. To address these challenges, the paper is built upon a Model Predictive Control-based path-following framework and extends its application to the Crazyflie quadrotor, which is investigated in hardware experiments. A cascaded control structure including an underlying attitude controller is included in the Model Predictive Path-Following Control formulation to meet the challenging real-time demands of quadrotor control. The effectiveness of the proposed method is demonstrated through real-world experiments, representing, to the best of the authors’ knowledge, a novel application of this MPC-based path-following approach to the quadrotor. Additionally, as an extension to the original method, to allow for deviations of the path in cases where the precise following of the path might be overly restrictive, a corridor path-following approach is presented.

arxiv情報

著者 David Leprich,Mario Rosenfelder,Mario Hermle,Jingshan Chen,Peter Eberhard
発行日 2025-06-18 13:18:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 93-XX, cs.RO, cs.SY, eess.SY | Model Predictive Path-Following Control for a Quadrotor はコメントを受け付けていません

SurfAAV: Design and Implementation of a Novel Multimodal Surfing Aquatic-Aerial Vehicle

要約

水生空中ロボットの研究における大幅な進歩にもかかわらず、既存の構成は、水中、表面、および航空運動を同時に効率的に実行するのに苦労しています。
このホワイトペーパーでは、水中ナビゲーション、表面の滑空、および空中飛行能力を効率的に統合する新しいマルチモーダルサーフィン水生車両Surfaavを提案します。
斬新な微分スラストベクターのハイドロフォイルの設計のおかげで、Surfaavは、浮力調整システムを必要とせずに、効率的な表面の滑走と水中ナビゲーションを実現できます。
この設計は、表面タスクと水中タスクの両方に柔軟な運用機能を提供し、ロボットが水中監視活動を迅速に実行できるようにします。
さらに、別の水域に到達する必要がある場合、Surfaavは滑空離陸を介して航空モードに切り替えて、対応するタスクを実行するためにターゲット水域に飛びます。
この手紙の主な貢献は、水中、表面、および空中ムーブメントのための新しいソリューションを提案し、新しいハイブリッドプロトタイプの概念を設計し、必要な制御法則の開発、および表面の滑空と滑空の離陸をうまく実行するロボットの能力を検証することにあります。
Surfaavは、最大表面滑走速度7.96 m/sと3.1 m/sの最大水速度を達成します。
プロトタイプの表面の滑空操作性と水中の巡航操作性は、どちらも既存の水生車両の車両を超えています。

要約(オリジナル)

Despite significant advancements in the research of aquatic-aerial robots, existing configurations struggle to efficiently perform underwater, surface, and aerial movement simultaneously. In this paper, we propose a novel multimodal surfing aquatic-aerial vehicle, SurfAAV, which efficiently integrates underwater navigation, surface gliding, and aerial flying capabilities. Thanks to the design of the novel differential thrust vectoring hydrofoil, SurfAAV can achieve efficient surface gliding and underwater navigation without the need for a buoyancy adjustment system. This design provides flexible operational capabilities for both surface and underwater tasks, enabling the robot to quickly carry out underwater monitoring activities. Additionally, when it is necessary to reach another water body, SurfAAV can switch to aerial mode through a gliding takeoff, flying to the target water area to perform corresponding tasks. The main contribution of this letter lies in proposing a new solution for underwater, surface, and aerial movement, designing a novel hybrid prototype concept, developing the required control laws, and validating the robot’s ability to successfully perform surface gliding and gliding takeoff. SurfAAV achieves a maximum surface gliding speed of 7.96 m/s and a maximum underwater speed of 3.1 m/s. The prototype’s surface gliding maneuverability and underwater cruising maneuverability both exceed those of existing aquatic-aerial vehicles.

arxiv情報

著者 Kun Liu,Junhao Xiao,Hao Lin,Yue Cao,Hui Peng,Kaihong Huang,Huimin Lu
発行日 2025-06-18 13:22:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SurfAAV: Design and Implementation of a Novel Multimodal Surfing Aquatic-Aerial Vehicle はコメントを受け付けていません