Novel computational workflows for natural and biomedical image processing based on hypercomplex algebras

要約

HyperComplex画像処理は、代数および幾何学的原理を含む統一されたパラダイムで従来の技術を拡張します。
この作業は、次の計算ワークフローと転帰を介して自然/生物医学画像分析のために、四項と2次元直交平面分割フレームワーク(四項 – 正結腸2D平面のペアへの分割 – ピクセルを表す – ピクセルを表す)を活用しています:自然/生物医学的イメージの再採用
色素化、自然画像の脱色、自然/生物医学的イメージのコントラストの強化、組織学的画像の計算の再染色と染色分離、および組織学的画像の機械/深い学習パイプラインのパフォーマンスの向上。
ワークフローは、提案されたアプローチの有効性を紹介するために、自然および生物医学の画像について個別に分析されます。
提案されたワークフローは、色の外観を調節することができます(たとえば、代替レンディションやグレースケール変換など)と画像のコントラストは、自動化された画像処理パイプライン(例:ステイン成分の分離、学習モデルの増加)の一部であり、デジタル病理アプリケーション(例えば、バイオマーカーの視認性を高めるのを支援します。
カラーブランドに優しいレンディションを有効にします)。
基本的な算術操作とマトリックス操作のみを採用して、この作業は、画像処理タスク全体で汎用性と一貫性を示し、コンピュータービジョンと生物医学的アプリケーションの範囲を紹介する計算的にアクセス可能な方法論を提供します。
提案されている非DATA駆動型の方法は、文献で報告されているものと同等の結果またはより良い結果(特によく知られている方法を含む場合)を実用的な有効性を備えた堅牢な理論的枠組みの可能性を示しています。
結果、方法、制限は、有望な拡張の議論とともに詳細に詳述されており、自然および生物医学画像のための機能が豊富な数学的/計算フレームワークの可能性を強調しています。

要約(オリジナル)

Hypercomplex image processing extends conventional techniques in a unified paradigm encompassing algebraic and geometric principles. This work leverages quaternions and the two-dimensional orthogonal planes split framework (splitting of a quaternion – representing a pixel – into pairs of orthogonal 2D planes) for natural/biomedical image analysis through the following computational workflows and outcomes: natural/biomedical image re-colorization, natural image de-colorization, natural/biomedical image contrast enhancement, computational re-staining and stain separation in histological images, and performance gains in machine/deep learning pipelines for histological images. The workflows are analyzed separately for natural and biomedical images to showcase the effectiveness of the proposed approaches. The proposed workflows can regulate color appearance (e.g. with alternative renditions and grayscale conversion) and image contrast, be part of automated image processing pipelines (e.g. isolating stain components, boosting learning models), and assist in digital pathology applications (e.g. enhancing biomarker visibility, enabling colorblind-friendly renditions). Employing only basic arithmetic and matrix operations, this work offers a computationally accessible methodology – in the hypercomplex domain – that showcases versatility and consistency across image processing tasks and a range of computer vision and biomedical applications. The proposed non-data-driven methods achieve comparable or better results (particularly in cases involving well-known methods) to those reported in the literature, showcasing the potential of robust theoretical frameworks with practical effectiveness. Results, methods, and limitations are detailed alongside discussion of promising extensions, emphasizing the potential of feature-rich mathematical/computational frameworks for natural and biomedical images.

arxiv情報

著者 Nektarios A. Valous,Eckhard Hitzer,Dragoş Duşe,Rodrigo Rojas Moraleda,Ferdinand Popp,Meggy Suarez-Carmona,Anna Berthel,Ismini Papageorgiou,Carlo Fremd,Alexander Rölle,Christina C. Westhoff,Bénédicte Lenoir,Niels Halama,Inka Zörnig,Dirk Jäger
発行日 2025-02-17 13:44:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG | Novel computational workflows for natural and biomedical image processing based on hypercomplex algebras はコメントを受け付けていません

AdaManip: Adaptive Articulated Object Manipulation Environments and Policy Learning

要約

明確なオブジェクト操作は、ロボットが実際のシナリオでさまざまなタスクを実行する重要な機能です。
関節で接続された複数の部分で構成されている、明確なオブジェクトには、複雑な相対運動を通じて多様な機能メカニズムが恵まれています。
たとえば、安全はドア、ハンドル、ロックで構成されます。ロックでは、ラッチのロックが解除されたときにのみドアを開くことができます。
ロックや関節の角度の制約の状態などの内部構造は、視覚的観察から直接観察することはできません。
したがって、これらのオブジェクトの操作が成功するには、一度限りの視覚推論ではなく、試行錯誤に基づいた適応調整が必要です。
ただし、明確なオブジェクトの以前のデータセットとシミュレーション環境は、主にオブジェクトの外観から完全な操作プロセスを推測できる単純な操作メカニズムに焦点を当てています。
適応操作メカニズムの多様性と複雑さを高めるために、新しい明確なオブジェクト操作環境を構築し、9つのカテゴリのオブジェクトを装備します。
環境とオブジェクトに基づいて、適応操作ポリシーを学習する適応デモコレクションと3D視覚拡散ベースの模倣学習パイプラインをさらに提案します。
私たちの設計と提案された方法の有効性は、シミュレーションと現実世界の実験の両方を通じて検証されます。
プロジェクトページは、https://adamanip.github.ioで入手できます

要約(オリジナル)

Articulated object manipulation is a critical capability for robots to perform various tasks in real-world scenarios. Composed of multiple parts connected by joints, articulated objects are endowed with diverse functional mechanisms through complex relative motions. For example, a safe consists of a door, a handle, and a lock, where the door can only be opened when the latch is unlocked. The internal structure, such as the state of a lock or joint angle constraints, cannot be directly observed from visual observation. Consequently, successful manipulation of these objects requires adaptive adjustment based on trial and error rather than a one-time visual inference. However, previous datasets and simulation environments for articulated objects have primarily focused on simple manipulation mechanisms where the complete manipulation process can be inferred from the object’s appearance. To enhance the diversity and complexity of adaptive manipulation mechanisms, we build a novel articulated object manipulation environment and equip it with 9 categories of objects. Based on the environment and objects, we further propose an adaptive demonstration collection and 3D visual diffusion-based imitation learning pipeline that learns the adaptive manipulation policy. The effectiveness of our designs and proposed method is validated through both simulation and real-world experiments. Our project page is available at: https://adamanip.github.io

arxiv情報

著者 Yuanfei Wang,Xiaojie Zhang,Ruihai Wu,Yu Li,Yan Shen,Mingdong Wu,Zhaofeng He,Yizhou Wang,Hao Dong
発行日 2025-02-16 13:45:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | AdaManip: Adaptive Articulated Object Manipulation Environments and Policy Learning はコメントを受け付けていません

BFA: Best-Feature-Aware Fusion for Multi-View Fine-grained Manipulation

要約

実際のシナリオでは、通常、マルチビューカメラが微調整された操作タスクに採用されています。
既存のアプローチ(ACTなど)は、マルチビュー機能を等しく扱い、ポリシー学習のためにそれらを直接連結する傾向があります。
ただし、冗長な視覚情報を導入し、より高い計算コストをもたらし、効果のない操作につながります。
きめ細かい操作タスクの場合、複数の段階を巻き込む傾向がありますが、さまざまな段階の最も寄与されているビューは時間とともに変化します。
このホワイトペーパーでは、さまざまなポリシーに適応できるマルチビュー操作タスクのプラグアンドプレイベストフィーチャーアウェア(BFA)融合戦略を提案します。
ポリシーネットワークの視覚的なバックボーンに基づいて構築され、各ビューの重要性スコアを予測するための軽量ネットワークを設計します。
予測された重要性スコアに基づいて、再航行されたマルチビュー機能はその後融合され、エンドツーエンドポリシーネットワークに入力され、シームレスな統合が可能になります。
特に、私たちの方法は、きめ細かい操作における優れたパフォーマンスを示しています。
実験結果は、私たちのアプローチが異なるタスクで22〜46%の成功率よりも複数のベースラインを上回ることを示しています。
私たちの作品は、細かい操作における重要な課題に取り組むための新しい洞察とインスピレーションを提供します。

要約(オリジナル)

In real-world scenarios, multi-view cameras are typically employed for fine-grained manipulation tasks. Existing approaches (e.g., ACT) tend to treat multi-view features equally and directly concatenate them for policy learning. However, it will introduce redundant visual information and bring higher computational costs, leading to ineffective manipulation. For a fine-grained manipulation task, it tends to involve multiple stages while the most contributed view for different stages is varied over time. In this paper, we propose a plug-and-play best-feature-aware (BFA) fusion strategy for multi-view manipulation tasks, which is adaptable to various policies. Built upon the visual backbone of the policy network, we design a lightweight network to predict the importance score of each view. Based on the predicted importance scores, the reweighted multi-view features are subsequently fused and input into the end-to-end policy network, enabling seamless integration. Notably, our method demonstrates outstanding performance in fine-grained manipulations. Experimental results show that our approach outperforms multiple baselines by 22-46% success rate on different tasks. Our work provides new insights and inspiration for tackling key challenges in fine-grained manipulations.

arxiv情報

著者 Zihan Lan,Weixin Mao,Haosheng Li,Le Wang,Tiancai Wang,Haoqiang Fan,Osamu Yoshie
発行日 2025-02-16 15:26:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | BFA: Best-Feature-Aware Fusion for Multi-View Fine-grained Manipulation はコメントを受け付けていません

Integrating Retrospective Framework in Multi-Robot Collaboration

要約

大規模な言語モデル(LLMS)の最近の進歩は、マルチロボットシステムのコミュニケーションと調整を強化する上で実質的な能力を実証しています。
ただし、既存の方法は、実際のマルチロボットシナリオで一般的な動的で不確実な環境で効率的なコラボレーションと意思決定を達成するのに苦労しています。
これらの課題に対処するために、マルチロボットコラボレーションのための新しいレトロスペクティブな俳優と批判のフレームワークを提案します。
このフレームワークには、2つの重要なコンポーネントが統合されます。(1)観察とタスク指令に基づいてリアルタイムの意思決定を実行するアクター、および(2)提案されたフレームワークが継続的に洗練されるためのフィードバックを提供するために結果を遡及的に評価する批評家
動的な条件に効果的に適応できます。
シミュレートされた環境で実施された広範な実験は、当社のアプローチの有効性を検証し、タスクのパフォーマンスと適応性の大幅な改善を示しています。
この作業は、ロボットコラボレーションにおける永続的な課題に対する堅牢なソリューションを提供します。

要約(オリジナル)

Recent advancements in Large Language Models (LLMs) have demonstrated substantial capabilities in enhancing communication and coordination in multi-robot systems. However, existing methods often struggle to achieve efficient collaboration and decision-making in dynamic and uncertain environments, which are common in real-world multi-robot scenarios. To address these challenges, we propose a novel retrospective actor-critic framework for multi-robot collaboration. This framework integrates two key components: (1) an actor that performs real-time decision-making based on observations and task directives, and (2) a critic that retrospectively evaluates the outcomes to provide feedback for continuous refinement, such that the proposed framework can adapt effectively to dynamic conditions. Extensive experiments conducted in simulated environments validate the effectiveness of our approach, demonstrating significant improvements in task performance and adaptability. This work offers a robust solution to persistent challenges in robotic collaboration.

arxiv情報

著者 Jiazhao Liang,Hao Huang,Yu Hao,Geeta Chandra Raju Bethala,Congcong Wen,John-Ross Rizzo,Yi Fang
発行日 2025-02-16 18:38:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Integrating Retrospective Framework in Multi-Robot Collaboration はコメントを受け付けていません

Bilevel Learning for Bilevel Planning

要約

デモンストレーションから学ぶロボットは、それが見ているものを真似するだけではありません。実証されている高レベルの概念を理解し、それらを新しいタスクに一般化する必要があります。
Bilevel Planningは、構成一般化を実現するために述語(関係状態の抽象化)を活用できる階層モデルベースのアプローチです。
ただし、以前のバイレベル計画のアプローチは、手工学または非常に単純なフォームに制限されている述語に依存しており、そのスケーラビリティを洗練された高次元の状態空間に制限しています。
この制限に対処するために、デモンストレーションから直接神経述語を学ぶことができる最初のバイレベル計画アプローチであるIVNTRを提示します。
私たちの主要な革新は、バイレベル計画の構造を反映したニューロシンボリックバイレベル学習フレームワークです。
IVNTRでは、述語「効果」の象徴的な学習と述語「関数」の代替の神経学習であり、それぞれが他方にガイダンスを提供します。
6つの多様なロボット計画ドメインでIVNTRを評価し、さまざまな連続および高次元の状態を抽象化する際の有効性を示しています。
ほとんどの既存のアプローチは一般化するのに苦労していますが(35%未満の成功率)、IVNTRは目に見えないタスクで平均77%の成功率を達成しています。
さらに、モバイルマニピュレーターでIVNTRを紹介します。モバイルマニピュレーターでは、実際のモバイル操作タスクを実行し、新しいオブジェクト、新しい状態、およびより長いタスクホリゾンを備えた目に見えないテストシナリオに一般化することを学びます。
私たちの調査結果は、高レベルの一般化への道として抽象化を伴う学習と計画の約束を強調しています。

要約(オリジナル)

A robot that learns from demonstrations should not just imitate what it sees — it should understand the high-level concepts that are being demonstrated and generalize them to new tasks. Bilevel planning is a hierarchical model-based approach where predicates (relational state abstractions) can be leveraged to achieve compositional generalization. However, previous bilevel planning approaches depend on predicates that are either hand-engineered or restricted to very simple forms, limiting their scalability to sophisticated, high-dimensional state spaces. To address this limitation, we present IVNTR, the first bilevel planning approach capable of learning neural predicates directly from demonstrations. Our key innovation is a neuro-symbolic bilevel learning framework that mirrors the structure of bilevel planning. In IVNTR, symbolic learning of the predicate ‘effects’ and neural learning of the predicate ‘functions’ alternate, with each providing guidance for the other. We evaluate IVNTR in six diverse robot planning domains, demonstrating its effectiveness in abstracting various continuous and high-dimensional states. While most existing approaches struggle to generalize (with <35% success rate), our IVNTR achieves an average of 77% success rate on unseen tasks. Additionally, we showcase IVNTR on a mobile manipulator, where it learns to perform real-world mobile manipulation tasks and generalizes to unseen test scenarios that feature new objects, new states, and longer task horizons. Our findings underscore the promise of learning and planning with abstractions as a path towards high-level generalization.

arxiv情報

著者 Bowen Li,Tom Silver,Sebastian Scherer,Alexander Gray
発行日 2025-02-16 20:43:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bilevel Learning for Bilevel Planning はコメントを受け付けていません

Towards Real-Time Generation of Delay-Compensated Video Feeds for Outdoor Mobile Robot Teleoperation

要約

テレオ操作は、監督者が農業ロボットをリモートで制御できるようにするための重要な技術です。
ただし、密集した作物の列の環境要因とネットワークインフラストラクチャの制限は、テレオペレーターにストリーミングされたデータの信頼性を妨げています。
これらの問題は、ロボットの実際の視点から大幅に逸脱することが多い、遅延して可変のフレームレートビデオフィードをもたらします。
監督者向けの遅延補償画像をリアルタイムで生成するために、モジュラー学習ベースのビジョンパイプラインを提案します。
当社の広範なオフライン評価は、私たちの方法が、設定の最新のアプローチと比較して、より正確な画像を生成することを示しています。
さらに、私たちのものは、リアルタイムで実際のロボットからのデータ上の複雑な地形を持つ屋外フィールド環境で遅延補償法を評価するための数少ない作品の1つです。
結果のビデオとコードは、https://sites.google.com/illinois.edu/comp-teleopで提供されます。

要約(オリジナル)

Teleoperation is an important technology to enable supervisors to control agricultural robots remotely. However, environmental factors in dense crop rows and limitations in network infrastructure hinder the reliability of data streamed to teleoperators. These issues result in delayed and variable frame rate video feeds that often deviate significantly from the robot’s actual viewpoint. We propose a modular learning-based vision pipeline to generate delay-compensated images in real-time for supervisors. Our extensive offline evaluations demonstrate that our method generates more accurate images compared to state-of-the-art approaches in our setting. Additionally, ours is one of the few works to evaluate a delay-compensation method in outdoor field environments with complex terrain on data from a real robot in real-time. Resulting videos and code are provided at https://sites.google.com/illinois.edu/comp-teleop.

arxiv情報

著者 Neeloy Chakraborty,Yixiao Fang,Andre Schreiber,Tianchen Ji,Zhe Huang,Aganze Mihigo,Cassidy Wall,Abdulrahman Almana,Katherine Driggs-Campbell
発行日 2025-02-16 23:43:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Towards Real-Time Generation of Delay-Compensated Video Feeds for Outdoor Mobile Robot Teleoperation はコメントを受け付けていません

AI Guide Dog: Egocentric Path Prediction on Smartphone

要約

このペーパーでは、スマートフォンでのリアルタイムの展開用に設計された視覚障害のあるユーザー向けの軽量のエゴセントリック(一人称)ナビゲーションシステムであるAI Guide Dog(AIGD)を紹介します。
AIGDは、Visionのみのマルチラベル分類アプローチを採用して、方向性コマンドを予測し、多様な環境全体の安全なナビゲーションを確保しています。
GPSシグナルと高レベルの方向を統合することにより、目標のないマルチパス予測を整理することにより、目標ベースの屋外ナビゲーションの新しい手法を導入します。
AIGDは、屋内および屋外の設定における目標指向および探索的ナビゲーションの両方を処理する最初のナビゲーション支援システムとして、ブラインドナビゲーションの新しいベンチマークを確立します。
支援ナビゲーションシステムのさらなる革新を促進するために、方法、データセット、評価、展開の洞察を提示します。

要約(オリジナル)

This paper presents AI Guide Dog (AIGD), a lightweight egocentric (first-person) navigation system for visually impaired users, designed for real-time deployment on smartphones. AIGD employs a vision-only multi-label classification approach to predict directional commands, ensuring safe navigation across diverse environments. We introduce a novel technique for goal-based outdoor navigation by integrating GPS signals and high-level directions, while also handling uncertain multi-path predictions for destination-free indoor navigation. As the first navigation assistance system to handle both goal-oriented and exploratory navigation across indoor and outdoor settings, AIGD establishes a new benchmark in blind navigation. We present methods, datasets, evaluations, and deployment insights to encourage further innovations in assistive navigation systems.

arxiv情報

著者 Aishwarya Jadhav,Jeffery Cao,Abhishree Shetty,Urvashi Priyam Kumar,Aditi Sharma,Ben Sukboontip,Jayant Sravan Tamarapalli,Jingyi Zhang,Anirudh Koul
発行日 2025-02-17 00:40:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG, cs.RO | AI Guide Dog: Egocentric Path Prediction on Smartphone はコメントを受け付けていません

VertiSelector: Automatic Curriculum Learning for Wheeled Mobility on Vertically Challenging Terrain

要約

強化学習(RL)は、シミュレート対エンドの試行錯誤の学習体験により、複雑な運動力学モデリング、計画、および制御を回避することにより、極端なオフロードモビリティを可能にする可能性があります。
ただし、ほとんどのRLメソッドは、手動で設計された大量のシミュレーション環境でトレーニングし、現実の世界に一般化するのに苦労する場合、サンプルが不足しています。
これらの問題に対処するために、トレーニング地域を選択的にサンプリングすることにより、学習効率と一般化を強化するために設計された自動カリキュラム学習フレームワークであるVertiselector(VS)を紹介します。
VSは、再検討時により高い時間差(TD)エラーで垂直に挑戦する地形を優先し、それにより、ロボットが進化する機能の端で学習できるようにします。
サンプリングフォーカスを動的に調整することにより、Chrono Multi-Physicsエンジンに基づいて構築されたVW-Chronoシミュレーター内のサンプル効率と一般化を大幅に向上させます。
さらに、VERTI-4ホイーラープラットフォームでVSを使用して、シミュレーションと物理的結果を提供します。
これらの結果は、VSがトレーニング中に効率的にサンプリングし、現実の世界に堅牢に一般化することにより、成功率に関して23.08%の改善を達成できることを示しています。

要約(オリジナル)

Reinforcement Learning (RL) has the potential to enable extreme off-road mobility by circumventing complex kinodynamic modeling, planning, and control by simulated end-to-end trial-and-error learning experiences. However, most RL methods are sample-inefficient when training in a large amount of manually designed simulation environments and struggle at generalizing to the real world. To address these issues, we introduce VertiSelector (VS), an automatic curriculum learning framework designed to enhance learning efficiency and generalization by selectively sampling training terrain. VS prioritizes vertically challenging terrain with higher Temporal Difference (TD) errors when revisited, thereby allowing robots to learn at the edge of their evolving capabilities. By dynamically adjusting the sampling focus, VS significantly boosts sample efficiency and generalization within the VW-Chrono simulator built on the Chrono multi-physics engine. Furthermore, we provide simulation and physical results using VS on a Verti-4-Wheeler platform. These results demonstrate that VS can achieve 23.08% improvement in terms of success rate by efficiently sampling during training and robustly generalizing to the real world.

arxiv情報

著者 Tong Xu,Chenhui Pan,Xuesu Xiao
発行日 2025-02-17 02:06:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | VertiSelector: Automatic Curriculum Learning for Wheeled Mobility on Vertically Challenging Terrain はコメントを受け付けていません

A Framework for Learning Scoring Rules in Autonomous Driving Planning Systems

要約

自律駆動システムでは、モーション計画は一般に2段階のプロセスとして実装されます。まず、軌道提案者が複数の候補の軌跡を生成し、スコアリングメカニズムが実行に最も適した軌跡を選択します。
この重要な選択段階では、ルールベースのスコアリングメカニズムは、形式化された人間的理解可能な形式で運転の好み、安全上の制約、および交通規制を明示的にエンコードできるため、特に魅力的です。
ただし、これらのスコアリングルールを手動で作成するには、重要な課題があります。ルールには、多くの場合、複雑な相互依存関係が含まれ、慎重なパラメーターチューニングが必要であり、実際の駆動データに存在するニュアンスを完全にキャプチャできない場合があります。
この作業では、時間論的論理で表される解釈可能なスコアリングルールを学ぶことでこのギャップを埋める新しいフレームワークであるFloraを紹介します。
私たちの方法は、多様な運転シナリオ全体で微妙な関係を捉えた学習可能なロジック構造を特徴としており、Nuplanで収集された現実世界の運転デモからルールとパラメーターの両方を最適化します。
トレーニングデータには肯定的な例のみが含まれているにもかかわらず、私たちのアプローチは運転行動を評価することを効果的に学びます(運転デモンストレーションの成功)。
閉ループ計画シミュレーションの評価は、学習したスコアリングルールが、解釈可能性を維持しながら、専門家が設計したルールやニューラルネットワークスコアリングモデルを含む既存の手法を上回ることを示しています。
この作業では、さまざまな軌道提案者とシームレスに統合するためのプラグインモジュールとして設計された自律運転システムのスコアリングメカニズムを強化するためのデータ駆動型のアプローチを紹介します。
私たちのビデオとコードはXiong.zikang.me/floraで入手できます。

要約(オリジナル)

In autonomous driving systems, motion planning is commonly implemented as a two-stage process: first, a trajectory proposer generates multiple candidate trajectories, then a scoring mechanism selects the most suitable trajectory for execution. For this critical selection stage, rule-based scoring mechanisms are particularly appealing as they can explicitly encode driving preferences, safety constraints, and traffic regulations in a formalized, human-understandable format. However, manually crafting these scoring rules presents significant challenges: the rules often contain complex interdependencies, require careful parameter tuning, and may not fully capture the nuances present in real-world driving data. This work introduces FLoRA, a novel framework that bridges this gap by learning interpretable scoring rules represented in temporal logic. Our method features a learnable logic structure that captures nuanced relationships across diverse driving scenarios, optimizing both rules and parameters directly from real-world driving demonstrations collected in NuPlan. Our approach effectively learns to evaluate driving behavior even though the training data only contains positive examples (successful driving demonstrations). Evaluations in closed-loop planning simulations demonstrate that our learned scoring rules outperform existing techniques, including expert-designed rules and neural network scoring models, while maintaining interpretability. This work introduces a data-driven approach to enhance the scoring mechanism in autonomous driving systems, designed as a plug-in module to seamlessly integrate with various trajectory proposers. Our video and code are available on xiong.zikang.me/FLoRA.

arxiv情報

著者 Zikang Xiong,Joe Kurian Eappen,Suresh Jagannathan
発行日 2025-02-17 02:06:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | A Framework for Learning Scoring Rules in Autonomous Driving Planning Systems はコメントを受け付けていません

HI-GVF: Shared Control based on Human-Influenced Guiding Vector Fields for Human-multi-robot Cooperation

要約

Human-Multi-Robot共有コントロールは、ヒューマンロボットコラボレーションを強化するために、人間の意思決定とロボットの自律性を活用します。
広く研究されていますが、既存のシステムはしばしばリーダーフォロワーモデルを採用し、ロボットの自律性をある程度制限します。
その上、人間はテレオ操作を介してロボットのモーション制御に直接参加する必要があります。
これら2つの問題を軽減するために、ヒトロボットコラボレーションのためにヒトの影響を受けたガイドベクトルフィールド(HI-GVF)を使用して、層状の共有制御コンピューティングフレームワークを提案します。
Hi-GVFは、人間によって指定された目的のパスに沿ってマルチロボットシステムを導きます。
次に、意図フィールドは、人間とロボットの意図をマージし、マルチロボットシステム内の人間の意図の伝播を加速するように設計されています。
さらに、提案されたモデルの安定性分析を提供し、速度を微調整するために安全障壁証明書に基づいて衝突回避を使用します。
最終的に、消防タスクを例のシナリオとして考慮すると、複数のヒトロボットインターフェイス(脳コンピューターインターフェイス、筋電リスト、アイトラッキング)を使用してシミュレーションと実験を実施します。
タスク。

要約(オリジナル)

Human-multi-robot shared control leverages human decision-making and robotic autonomy to enhance human-robot collaboration. While widely studied, existing systems often adopt a leader-follower model, limiting robot autonomy to some extent. Besides, a human is required to directly participate in the motion control of robots through teleoperation, which significantly burdens the operator. To alleviate these two issues, we propose a layered shared control computing framework using human-influenced guiding vector fields (HI-GVF) for human-robot collaboration. HI-GVF guides the multi-robot system along a desired path specified by the human. Then, an intention field is designed to merge the human and robot intentions, accelerating the propagation of the human intention within the multi-robot system. Moreover, we give the stability analysis of the proposed model and use collision avoidance based on safety barrier certificates to fine-tune the velocity. Eventually, considering the firefighting task as an example scenario, we conduct simulations and experiments using multiple human-robot interfaces (brain-computer interface, myoelectric wristband, eye-tracking), and the results demonstrate that our proposed approach boosts the effectiveness and performance of the task.

arxiv情報

著者 Pengming Zhu,Zongtan Zhou,Weijia Yao,Wei Dai,Zhiwen Zeng,Huimin Lu
発行日 2025-02-17 02:33:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | HI-GVF: Shared Control based on Human-Influenced Guiding Vector Fields for Human-multi-robot Cooperation はコメントを受け付けていません