Evaluating Pedestrian Risks in Shared Spaces Through Autonomous Vehicle Experiments on a Fixed Track

要約

自律車両の安全に関する研究の大部分は、構造化された制御環境で行われています。
ただし、特に路面電車などの公共交通機関と交流する場合、規制されていない歩行者地域の安全性に関する研究が不足しています。
この研究では、自律車両を使用して環境でこの現実世界のシナリオを複製することにより、このコンテキストでのアラートシステムに対する歩行者の反応を調査します。
結果は、他のコンテキストからの安全対策は、固定されたトラックが規制されていない交差点のリスクを高める路​​面電車と共有スペースに適合させることができることを示しています。

要約(オリジナル)

The majority of research on safety in autonomous vehicles has been conducted in structured and controlled environments. However, there is a scarcity of research on safety in unregulated pedestrian areas, especially when interacting with public transport vehicles like trams. This study investigates pedestrian responses to an alert system in this context by replicating this real-world scenario in an environment using an autonomous vehicle. The results show that safety measures from other contexts can be adapted to shared spaces with trams, where fixed tracks heighten risks in unregulated crossings.

arxiv情報

著者 Enrico Del Re,Novel Certad,Cristina Olaverri-Monreal
発行日 2025-04-11 07:37:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Evaluating Pedestrian Risks in Shared Spaces Through Autonomous Vehicle Experiments on a Fixed Track はコメントを受け付けていません

RINGO: Real-time Navigation with a Guiding Trajectory for Aerial Manipulators in Unknown Environments

要約

制約された環境での航空操作者のモーション計画は、通常、既知の環​​境に限定されているか、マルチローターの環境に簡素化されており、適応性が低く、過度に保守的な軌跡につながります。
このホワイトペーパーでは、RINGO:〜リアルタイムナビゲーションを導きます。ガイド軌道、空中マニピュレーターが不明な環境をリアルタイムでナビゲートできるようにする新しい計画フレームワークです。
提案された方法は、マルチローターとエンドエフェクターの両方の位置を同時に考慮します。
事前に取得されたマルチローター軌道は、ガイドの参照として機能し、エンドエフェクターが滑らかで衝突のない、ワークスペースに適合性のある軌跡を生成できるようにします。
Bスプライン曲線の凸式船体特性を活用して、軌道が到達可能なワークスペース内に残っていることを理論的に保証します。
私たちの知る限り、これは未知の環境での空中マニピュレーターのリアルタイムナビゲーションを可能にする最初の作業です。
シミュレーションと実験結果は、提案された方法の有効性を示しています。
提案された方法は、マルチローターのみを考慮するアプローチよりも保守的な軌跡が少なくなります。

要約(オリジナル)

Motion planning for aerial manipulators in constrained environments has typically been limited to known environments or simplified to that of multi-rotors, which leads to poor adaptability and overly conservative trajectories. This paper presents RINGO:~Real-time Navigation with a Guiding Trajectory, a novel planning framework that enables aerial manipulators to navigate unknown environments in real time. The proposed method simultaneously considers the positions of both the multi-rotor and the end-effector. A pre-obtained multi-rotor trajectory serves as a guiding reference, allowing the end-effector to generate a smooth, collision-free, and workspace-compatible trajectory. Leveraging the convex hull property of B-spline curves, we theoretically guarantee that the trajectory remains within the reachable workspace. To the best of our knowledge, this is the first work that enables real-time navigation of aerial manipulators in unknown environments. The simulation and experimental results show the effectiveness of the proposed method. The proposed method generates less conservative trajectories than approaches that consider only the multi-rotor.

arxiv情報

著者 Zhang Zhaopeng,Wu Shizhen,Guo Chenfeng,Fang Yongchun,Han Jianda,Liang Xiao
発行日 2025-04-11 08:07:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RINGO: Real-time Navigation with a Guiding Trajectory for Aerial Manipulators in Unknown Environments はコメントを受け付けていません

SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis

要約

最近の研究では、リダーポイントクラウドの新しいビュー合成(NVS)の調査を開始し、目に見えない視点から現実的なライダースキャンを生成することを目指しています。
ただし、ほとんどの既存のアプローチは、自律運転やロボット認識などの多くのダウンストリームアプリケーションにとって重要なセマンティックラベルを再構築しません。
強力なセグメンテーションモデルの恩恵を受ける画像とは異なり、Lidar Point Cloudsはこのような大規模な事前訓練モデルを欠いており、セマンティックな注釈が時間をかけて労働集約的にします。
この課題に対処するために、正確なセマンティックセグメンテーション、高品質の幾何学的再構成、およびリアルなLidar合成を共同で実行する方法であるSNリダーを提案します。
具体的には、マルチフレームポイントクラウドからグローバルな機能を抽出し、CNNベースのエンコーダーを活用して現在のフレームポイントクラウドからローカルセマンティック機能を抽出するために、粗からファインの平面グリッド機能表現を採用しています。
SemantickittiとKitti-360に関する広範な実験は、セマンティックと幾何学の両方の再構成の両方でSNリダーの優位性を示しており、動的オブジェクトと大規模なシーンの効果的な取り扱いです。
コードはhttps://github.com/dtc111111/sn-lidarで入手できます。

要約(オリジナル)

Recent research has begun exploring novel view synthesis (NVS) for LiDAR point clouds, aiming to generate realistic LiDAR scans from unseen viewpoints. However, most existing approaches do not reconstruct semantic labels, which are crucial for many downstream applications such as autonomous driving and robotic perception. Unlike images, which benefit from powerful segmentation models, LiDAR point clouds lack such large-scale pre-trained models, making semantic annotation time-consuming and labor-intensive. To address this challenge, we propose SN-LiDAR, a method that jointly performs accurate semantic segmentation, high-quality geometric reconstruction, and realistic LiDAR synthesis. Specifically, we employ a coarse-to-fine planar-grid feature representation to extract global features from multi-frame point clouds and leverage a CNN-based encoder to extract local semantic features from the current frame point cloud. Extensive experiments on SemanticKITTI and KITTI-360 demonstrate the superiority of SN-LiDAR in both semantic and geometric reconstruction, effectively handling dynamic objects and large-scale scenes. Codes will be available on https://github.com/dtc111111/SN-Lidar.

arxiv情報

著者 Yi Chen,Tianchen Deng,Wentao Zhao,Xiaoning Wang,Wenqian Xi,Weidong Chen,Jingchuan Wang
発行日 2025-04-11 08:51:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis はコメントを受け付けていません

Human strategies for correcting `human-robot’ errors during a laundry sorting task

要約

人間と人間の相互作用(HHI)の根底にあるメンタルモデルと期待は、国内のロボットとの人間とロボットの相互作用(HRI)を知らせます。
人間のロボットコミュニケーションのための国内のロボットのスピーチと行動を改善することにより、共同ホームタスクを容易にするために、障害が発生したときに人々がどのようにコミュニケーションをとったかを理解するための研究を設計しました。
特にロボットの故障に応じて、自然コミュニケーションのパターンを特定するために、参加者はランドロボットに自然言語とジェスチャーを使用してランドリーをバスケットに移動するように指示しました。
ランドロボットは、エラーなしで動作するか、2つのエラーモードのいずれかで機能しました。
参加者は、ランドロボットが人間の俳優であることも、エラーモードに関する情報を与えられたことも知られていません。
42人の参加者からのビデオ分析では、「ああ」や「OK」などの笑い声、口頭表現、およびフィラーの単語が含まれ、自分の顔に触れる、静的な指でのポインティングの増加、驚きの表情など、音声パターン、口頭表現、およびフィラーの単語が含まれていました。
エラーが発生したときに展開された一般的な戦略、修正と教育、責任の取得、フラストレーションの表示が含まれます。
エラーに対する反応の強さは、曝露とともに減少し、おそらく受け入れや辞任を示しています。
いくつかは、スマートアシスタントなどの他のテクノロジーと通信するために使用される戦略と同様の戦略を使用しました。
擬人化されたロボットは、この種のタスクに理想的ではない場合があります。
ランドロボットの外観、形態、音声、能力、および回復戦略は、それがどのように認識されたかに影響を与えた可能性があります。
一部の参加者は、ランドロボットの実際のスキルが期待に沿っていないことを示しました。
これにより、何が期待され、どの程度のランドロボットが理解しているかを知ることが困難になりました。
専門知識、性格、文化的な違いは反応に影響を与える可能性がありますが、これらは評価されませんでした。

要約(オリジナル)

Mental models and expectations underlying human-human interaction (HHI) inform human-robot interaction (HRI) with domestic robots. To ease collaborative home tasks by improving domestic robot speech and behaviours for human-robot communication, we designed a study to understand how people communicated when failure occurs. To identify patterns of natural communication, particularly in response to robotic failures, participants instructed Laundrobot to move laundry into baskets using natural language and gestures. Laundrobot either worked error-free, or in one of two error modes. Participants were not advised Laundrobot would be a human actor, nor given information about error modes. Video analysis from 42 participants found speech patterns, included laughter, verbal expressions, and filler words, such as “oh” and “ok”, also, sequences of body movements, including touching one’s own face, increased pointing with a static finger, and expressions of surprise. Common strategies deployed when errors occurred, included correcting and teaching, taking responsibility, and displays of frustration. The strength of reaction to errors diminished with exposure, possibly indicating acceptance or resignation. Some used strategies similar to those used to communicate with other technologies, such as smart assistants. An anthropomorphic robot may not be ideally suited to this kind of task. Laundrobot’s appearance, morphology, voice, capabilities, and recovery strategies may have impacted how it was perceived. Some participants indicated Laundrobot’s actual skills were not aligned with expectations; this made it difficult to know what to expect and how much Laundrobot understood. Expertise, personality, and cultural differences may affect responses, however these were not assessed.

arxiv情報

著者 Pepita Barnard,Maria J Galvez Trigo,Dominic Price,Sue Cobb,Gisela Reyes-Cruz,Gustavo Berumen,David Branson III,Mojtaba A. Khanesar,Mercedes Torres Torres,Michel Valstar
発行日 2025-04-11 09:53:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO | Human strategies for correcting `human-robot’ errors during a laundry sorting task はコメントを受け付けていません

Advancing Manipulation Capabilities of a UAV Featuring Dynamic Center-of-Mass Displacement

要約

航空ロボットが産業用途で牽引力を獲得するにつれて、物理的な相互作用能力を高めることに関心が高まっています。
空中マニピュレーターによって実行されるプッシュタスクは、接触ベースの検査で正常に実証されています。
ただし、より複雑な産業用アプリケーションでは、これらのシステムがより高度な(自由度)マニピュレーターをサポートし、プッシュ中に大きな力を生成する必要があります(掘削、研削など)。
このペーパーは、以前の作業に基づいて構築されており、相互作用中の力の運動を改善するために、COM(Center of Mass)の位置を動的に変化させることができる航空車両を導入しました。
相互作用中にCOMの位置を最適化することにより、このシステムの力の生成をさらに強化するための新しいアプローチを提案します。
さらに、ツールベースのタスクでのシステムの機能を拡張するために、2ドーフの操作アームを備えたこの空中車両のケースを研究します。
提案された方法の有効性は、シミュレーションを通じて検証され、実際の設定での高度な空中操作のためのこのシステムの可能性を示しています。

要約(オリジナル)

As aerial robots gain traction in industrial applications, there is growing interest in enhancing their physical interaction capabilities. Pushing tasks performed by aerial manipulators have been successfully demonstrated in contact-based inspections. However, more complex industrial applications require these systems to support higher-DoF (Degree of Freedom) manipulators and generate larger forces while pushing (e.g., drilling, grinding). This paper builds on our previous work, where we introduced an aerial vehicle that can dynamically vary its CoM (Center of Mass) location to improve force exertion during interactions. We propose a novel approach to further enhance this system’s force generation by optimizing its CoM location during interactions. Additionally, we study the case of this aerial vehicle equipped with a 2-DoF manipulation arm to extend the system’s functionality in tool-based tasks. The effectiveness of the proposed methods is validated through simulations, demonstrating the potential of this system for advanced aerial manipulation in practical settings.

arxiv情報

著者 Tong Hui,Matteo Fumagalli
発行日 2025-04-11 10:24:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Advancing Manipulation Capabilities of a UAV Featuring Dynamic Center-of-Mass Displacement はコメントを受け付けていません

The Composite Visual-Laser Navigation Method Applied in Indoor Poultry Farming Environments

要約

屋内の家禽農場では、環境制御を正確に維持するために検査ロボットが必要です。これは、病気の急速な拡散と大規模な鳥の死亡率を防ぐために重要です。
しかし、これらの施設内の複雑な条件は、激しい照明と水の蓄積の地域を特徴とするものであり、重大な課題をもたらします。
単一のセンサーに依存する従来のナビゲーション方法は、このような環境ではパフォーマンスが低下することがよくあり、視覚的なナビゲーションライン抽出のレーザードリフトや不正確さなどの問題が発生します。
これらの制限を克服するために、レーザーテクノロジーとビジョンテクノロジーの両方を統合する新しい複合ナビゲーション法を提案します。
このアプローチは、各センサーモダリティのリアルタイムの信頼性に基づいて融合したヨー角を動的に計算し、それにより物理的なナビゲーションラインの必要性を排除します。
実際の家禽の家環境での実験的検証は、この方法が単一センサーシステムの固有の欠点を解決するだけでなく、ナビゲーションの精度と運用効率を大幅に向上させることを示しています。
そのため、複雑な屋内家禽農業環境での検査ロボットのパフォーマンスを改善するための有望なソリューションを提示します。

要約(オリジナル)

Indoor poultry farms require inspection robots to maintain precise environmental control, which is crucial for preventing the rapid spread of disease and large-scale bird mortality. However, the complex conditions within these facilities, characterized by areas of intense illumination and water accumulation, pose significant challenges. Traditional navigation methods that rely on a single sensor often perform poorly in such environments, resulting in issues like laser drift and inaccuracies in visual navigation line extraction. To overcome these limitations, we propose a novel composite navigation method that integrates both laser and vision technologies. This approach dynamically computes a fused yaw angle based on the real-time reliability of each sensor modality, thereby eliminating the need for physical navigation lines. Experimental validation in actual poultry house environments demonstrates that our method not only resolves the inherent drawbacks of single-sensor systems, but also significantly enhances navigation precision and operational efficiency. As such, it presents a promising solution for improving the performance of inspection robots in complex indoor poultry farming settings.

arxiv情報

著者 Jiafan Lu,Dongcheng Hu,Yitian Ye,Anqi Liu,Zixian Zhang,Xin Peng
発行日 2025-04-11 10:44:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | The Composite Visual-Laser Navigation Method Applied in Indoor Poultry Farming Environments はコメントを受け付けていません

Diffusion Models for Robotic Manipulation: A Survey

要約

拡散生成モデルは、画像やビデオ生成などの視覚ドメインで顕著な成功を示しています。
彼らは最近、ロボット工学、特にロボットの操作における有望なアプローチとしても浮上しています。
拡散モデルは確率的フレームワークを活用し、マルチモーダル分布をモデル化する能力と、高次元の入力および出力スペースに堅牢性をモデル化する能力で際立っています。
この調査では、把握学習、軌跡計画、データ増強など、ロボット操作における最先端の拡散モデルの包括的なレビューを提供します。
シーンと画像の増強の拡散モデルは、一般化とデータ不足を強化するためのビジョンベースのタスクのロボット工学とコンピュータービジョンの交差点にあります。
このペーパーでは、拡散モデルの2つの主要なフレームワークと、模倣学習と強化学習との統合についても説明します。
さらに、一般的なアーキテクチャとベンチマークについて説明し、現在の最先端の拡散ベースの方法の課題と利点を指摘しています。

要約(オリジナル)

Diffusion generative models have demonstrated remarkable success in visual domains such as image and video generation. They have also recently emerged as a promising approach in robotics, especially in robot manipulations. Diffusion models leverage a probabilistic framework, and they stand out with their ability to model multi-modal distributions and their robustness to high-dimensional input and output spaces. This survey provides a comprehensive review of state-of-the-art diffusion models in robotic manipulation, including grasp learning, trajectory planning, and data augmentation. Diffusion models for scene and image augmentation lie at the intersection of robotics and computer vision for vision-based tasks to enhance generalizability and data scarcity. This paper also presents the two main frameworks of diffusion models and their integration with imitation learning and reinforcement learning. In addition, it discusses the common architectures and benchmarks and points out the challenges and advantages of current state-of-the-art diffusion-based methods.

arxiv情報

著者 Rosa Wolf,Yitian Shi,Sheng Liu,Rania Rayyes
発行日 2025-04-11 11:01:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, stat.ML | Diffusion Models for Robotic Manipulation: A Survey はコメントを受け付けていません

Globally Optimal Data-Association-Free Landmark-Based Localization Using Semidefinite Relaxations

要約

このペーパーでは、平面環境における未知のデータ関連を伴うランドマークベースのローカリゼーションのための半分の緩和を提案します。
提案された方法は、最適なロボット状態とデータ関連をグローバルに最適な方法で同時に解決します。
既知のランドマークに対する相対的な位置測定が使用されますが、データ関連はロボットでは不明です。各測定が生成されるランドマークがわからない。
中程度の騒音レベルでは、ほとんどの場合、リラクゼーションは緊密であることが示されています。
提案されたアルゴリズムは、デッドレックアンド軌道で初期化されたローカルGauss-Newtonベースラインと比較され、シミュレーションと実験における問題のグローバルな最適への収束を大幅に改善することが示されています。
付随するソフトウェアと補足資料は、https://github.com/vkorotkine/certifiable_uda_locにあります。

要約(オリジナル)

This paper proposes a semidefinite relaxation for landmark-based localization with unknown data associations in planar environments. The proposed method simultaneously solves for the optimal robot states and data associations in a globally optimal fashion. Relative position measurements to known landmarks are used, but the data association is unknown in tha tthe robot does not know which landmark each measurement is generated from. The relaxation is shown to be tight in a majority of cases for moderate noise levels. The proposed algorithm is compared to local Gauss-Newton baselines initialized at the dead-reckoned trajectory, and is shown to significantly improve convergence to the problem’s global optimum in simulation and experiment. Accompanying software and supplementary material may be found at https://github.com/vkorotkine/certifiable_uda_loc .

arxiv情報

著者 Vassili Korotkine,Mitchell Cohen,James Richard Forbes
発行日 2025-04-11 14:00:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Globally Optimal Data-Association-Free Landmark-Based Localization Using Semidefinite Relaxations はコメントを受け付けていません

Enabling Safety for Aerial Robots: Planning and Control Architectures

要約

実際のアプリケーションに航空ロボットを展開するためには、安全な自律性を確保することが重要です。
ただし、安全性は多面的な課題であり、動的環境でのナビゲーション、リソースの制約の下での動作、敵対的な攻撃や不確実性に対する堅牢性など、複数の視点から対処する必要があります。
この論文では、これらの課題のいくつかに取り組み、自律航空システムの安全性とパフォーマンスを高めるために考慮しなければならない重要な側面を強調する著者の最近の研究を紹介します。
提示されたすべてのアプローチは、ハードウェア実験を通じて検証されます。

要約(オリジナル)

Ensuring safe autonomy is crucial for deploying aerial robots in real-world applications. However, safety is a multifaceted challenge that must be addressed from multiple perspectives, including navigation in dynamic environments, operation under resource constraints, and robustness against adversarial attacks and uncertainties. In this paper, we present the authors’ recent work that tackles some of these challenges and highlights key aspects that must be considered to enhance the safety and performance of autonomous aerial systems. All presented approaches are validated through hardware experiments.

arxiv情報

著者 Kaleb Ben Naveed,Devansh R. Agrawal,Daniel M. Cherenson,Haejoon Lee,Alia Gilbert,Hardik Parwana,Vishnu S. Chipade,William Bentz,Dimitra Panagou
発行日 2025-04-11 15:05:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Enabling Safety for Aerial Robots: Planning and Control Architectures はコメントを受け付けていません

Tactile sensing enables vertical obstacle negotiation for elongate many-legged robots

要約

多くの足の細長いロボットは、頑丈な風景の信頼できるモビリティの有望を示しています。
ただし、これらのシステムに関するほとんどの研究は、急速な垂直方向の動きに対処することなく、2D水平面(たとえば、翻訳や回転)でのモーション計画に焦点を当てています。
軽度の頑丈な地形での成功にもかかわらず、最近のフィールドテストは、実際のアプリケーションで3D行動(例えば、登山や背の高い障害物を横断する)の重要な必要性を明らかにしています。
3Dモーション計画の課題は、通常25度以上の自由度を持つ、複雑な高度の高度化システムのセンシングと制御の設計に部分的にあります。
最初の課題に対処するために、ロボットが障害物をプローブし、環境の構造に関する情報を収集できる触覚アンテナシステムを提案します。
この感覚入力に基づいて、アンテナと足の接触センサーからのデータを統合して、効果的な登山のためにロボットの垂直ボディの鳴り響を動的に調整するコントロールフレームワークを開発します。
シンプルで低帯域幅の触覚センサーを追加すると、静的な安定性と冗長性が高いロボットは、単純なフィードバックコントローラーを使用した複雑な環境で予測可能なクライミングパフォーマンスを示します。
実験室と屋外の実験は、その身長の5倍まで障害物を登るロボットの能力を示しています。
さらに、ロボットは、流れやすいロボットサイズのランダムアイテムと急速に変化する湾曲を特徴とする障害物に堅牢なクライミング機能を示します。
これらの発見は、環境を認識し、足のロボットに対する効果的な対応を促進するための代替ソリューションを示しており、将来の非常に能力が高く、控えめな多くのロボットへの道を開いています。

要約(オリジナル)

Many-legged elongated robots show promise for reliable mobility on rugged landscapes. However, most studies on these systems focus on motion planning in the 2D horizontal plane (e.g., translation and rotation) without addressing rapid vertical motion. Despite their success on mild rugged terrains, recent field tests reveal a critical need for 3D behaviors (e.g., climbing or traversing tall obstacles) in real-world application. The challenges of 3D motion planning partially lie in designing sensing and control for a complex high-degree-of-freedom system, typically with over 25 degrees of freedom. To address the first challenge, we propose a tactile antenna system that enables the robot to probe obstacles and gather information about the structure of the environment. Building on this sensory input, we develop a control framework that integrates data from the antenna and foot contact sensors to dynamically adjust the robot’s vertical body undulation for effective climbing. With the addition of simple, low-bandwidth tactile sensors, a robot with high static stability and redundancy exhibits predictable climbing performance in complex environments using a simple feedback controller. Laboratory and outdoor experiments demonstrate the robot’s ability to climb obstacles up to five times its height. Moreover, the robot exhibits robust climbing capabilities on obstacles covered with flowable, robot-sized random items and those characterized by rapidly changing curvatures. These findings demonstrate an alternative solution to perceive the environment and facilitate effective response for legged robots, paving ways towards future highly capable, low-profile many-legged robots.

arxiv情報

著者 Juntao He,Baxi Chong,Vincent R Nienhusser,Massimiliano Iaschi,Sehoon Ha,Daniel I. Goldman
発行日 2025-04-11 15:20:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Tactile sensing enables vertical obstacle negotiation for elongate many-legged robots はコメントを受け付けていません