FRASA: An End-to-End Reinforcement Learning Agent for Fall Recovery and Stand Up of Humanoid Robots

要約

ヒューマノイドロボット工学は、動的な環境で安定した移動を実現し、転倒から回復するという大きな課題に直面しています。
モデル予測制御 (MPC) やキー フレーム ベース (KFB) ルーチンなどの従来の方法では、広範な微調整が必​​要か、リアルタイムの適応性に欠けています。
このペーパーでは、転倒時の回復戦略と立ち上がり戦略を統合フレームワークに統合する深層強化学習 (DRL) エージェントである FRASA を紹介します。
Cross-Q アルゴリズムを活用することで、FRASA はトレーニング時間を大幅に短縮し、予測不可能な外乱に適応する多用途の回復戦略を提供します。
シグマバン ヒューマノイド ロボットの比較テストでは、キッドサイズ リーグの世界チャンピオンであるローバン チームがロボカップ 2023 で導入した KFB 方式に対して FRASA の優れたパフォーマンスが実証されました。

要約(オリジナル)

Humanoid robotics faces significant challenges in achieving stable locomotion and recovering from falls in dynamic environments. Traditional methods, such as Model Predictive Control (MPC) and Key Frame Based (KFB) routines, either require extensive fine-tuning or lack real-time adaptability. This paper introduces FRASA, a Deep Reinforcement Learning (DRL) agent that integrates fall recovery and stand up strategies into a unified framework. Leveraging the Cross-Q algorithm, FRASA significantly reduces training time and offers a versatile recovery strategy that adapts to unpredictable disturbances. Comparative tests on Sigmaban humanoid robots demonstrate FRASA superior performance against the KFB method deployed in the RoboCup 2023 by the Rhoban Team, world champion of the KidSize League.

arxiv情報

著者 Clément Gaspard,Marc Duclusaud,Grégoire Passault,Mélodie Daniel,Olivier Ly
発行日 2024-10-11 09:27:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | FRASA: An End-to-End Reinforcement Learning Agent for Fall Recovery and Stand Up of Humanoid Robots はコメントを受け付けていません

MetaUrban: An Embodied AI Simulation Platform for Urban Micromobility

要約

街並みや広場などの公共の都市空間は、住民にサービスを提供し、あらゆる活気に満ちた社会生活に対応します。
ロボット工学と身体型 AI の最近の進歩により、公共の都市空間はもはや人間だけのものではなくなりました。
食品配達ロボットや電動車椅子が歩行者と歩道を共有し始め、最近ではロボット犬やヒューマノイドが街路に出現しています。
AI によって可能になる都市の公共空間での短距離移動を実現するマイクロモビリティは、将来の交通システムにおいて重要な要素を果たします。
モバイルマシンを操作する AI モデルの汎用性と安全性を確保することが不可欠です。
この研究では、AI 駆動の都市マイクロモビリティ研究のための組成シミュレーション プラットフォームである MetaUrban を紹介します。
MetaUrban は、構成要素から無限の数のインタラクティブな都市シーンを構築でき、膨大な数の平面図、オブジェクトの配置、歩行者、交通弱者の道路利用者、その他のモバイル エージェントの外観とダイナミクスをカバーします。
私たちは、都市マイクロモビリティ研究のための MetaUrban を使用したパイロット研究としてポイント ナビゲーションとソーシャル ナビゲーション タスクを設計し、強化学習と模倣学習のさまざまなベースラインを確立します。
私たちはモバイル マシン全体で広範な評価を実施し、異種の機械構造が AI ポリシーの学習と実行に大きな影響を与えることを実証しています。
私たちは徹底したアブレーション研究を実施し、シミュレートされた環境の構成的性質により、訓練されたモバイル エージェントの一般化可能性と安全性が大幅に向上する可能性があることを示しています。
MetaUrban は、研究の機会を提供し、都市における安全で信頼できる組み込み型 AI とマイクロモビリティを促進するために一般公開されます。
コードとデータセットは一般に公開されます。

要約(オリジナル)

Public urban spaces like streetscapes and plazas serve residents and accommodate social life in all its vibrant variations. Recent advances in Robotics and Embodied AI make public urban spaces no longer exclusive to humans. Food delivery bots and electric wheelchairs have started sharing sidewalks with pedestrians, while robot dogs and humanoids have recently emerged in the street. Micromobility enabled by AI for short-distance travel in public urban spaces plays a crucial component in the future transportation system. Ensuring the generalizability and safety of AI models maneuvering mobile machines is essential. In this work, we present MetaUrban, a compositional simulation platform for the AI-driven urban micromobility research. MetaUrban can construct an infinite number of interactive urban scenes from compositional elements, covering a vast array of ground plans, object placements, pedestrians, vulnerable road users, and other mobile agents’ appearances and dynamics. We design point navigation and social navigation tasks as the pilot study using MetaUrban for urban micromobility research and establish various baselines of Reinforcement Learning and Imitation Learning. We conduct extensive evaluation across mobile machines, demonstrating that heterogeneous mechanical structures significantly influence the learning and execution of AI policies. We perform a thorough ablation study, showing that the compositional nature of the simulated environments can substantially improve the generalizability and safety of the trained mobile agents. MetaUrban will be made publicly available to provide research opportunities and foster safe and trustworthy embodied AI and micromobility in cities. The code and dataset will be publicly available.

arxiv情報

著者 Wayne Wu,Honglin He,Jack He,Yiran Wang,Chenda Duan,Zhizheng Liu,Quanyi Li,Bolei Zhou
発行日 2024-10-11 09:41:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | MetaUrban: An Embodied AI Simulation Platform for Urban Micromobility はコメントを受け付けていません

CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series

要約

因果関係の研究は、科学の多くの分野だけでなく、インテリジェント システムの多くの実際的な応用にとっても最も重要です。
特に、隠れた要因を含む状況での因果関係を特定することは、観察データのみに依存して因果モデルを構築する手法にとって大きな課題です。
この論文では、観察時系列データと介入時系列データの両方を使用して因果モデルを再構築する因果発見手法である CAnDOIT を提案します。
因果分析における介入データの使用は、シナリオが非常に複雑であり、正しい因果構造を明らかにするには観察データだけでは不十分なことが多いロボット工学などの実世界のアプリケーションにとって非常に重要です。
この方法の検証は、最初はランダムに生成された合成モデルで実行され、その後、ロボット操作環境での因果構造学習のよく知られたベンチマークで実行されます。
実験は、このアプローチが介入からのデータを効果的に処理し、それを活用して因果分析の精度を高めることができることを示しています。
CAnDOIT の Python 実装も開発されており、GitHub: https://github.com/lcastri/causalflow で公開されています。

要約(オリジナル)

The study of cause-and-effect is of the utmost importance in many branches of science, but also for many practical applications of intelligent systems. In particular, identifying causal relationships in situations that include hidden factors is a major challenge for methods that rely solely on observational data for building causal models. This paper proposes CAnDOIT, a causal discovery method to reconstruct causal models using both observational and interventional time-series data. The use of interventional data in the causal analysis is crucial for real-world applications, such as robotics, where the scenario is highly complex and observational data alone are often insufficient to uncover the correct causal structure. Validation of the method is performed initially on randomly generated synthetic models and subsequently on a well-known benchmark for causal structure learning in a robotic manipulation environment. The experiments demonstrate that the approach can effectively handle data from interventions and exploit them to enhance the accuracy of the causal analysis. A Python implementation of CAnDOIT has also been developed and is publicly available on GitHub: https://github.com/lcastri/causalflow.

arxiv情報

著者 Luca Castri,Sariah Mghames,Marc Hanheide,Nicola Bellotto
発行日 2024-10-11 09:48:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, stat.ML | CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series はコメントを受け付けていません

A Bayesian Framework for Active Tactile Object Recognition, Pose Estimation and Shape Transfer Learning

要約

人間がアクティブなタッチを通じて世界を探索し理解できるように、ロボットにも同様の機能が求められます。
この論文では、カスタマイズされた粒子フィルター (PF) とガウス プロセス陰的曲面 (GPIS) が統一されたベイジアン フレームワークで組み合わされる、能動的な触覚物体認識、姿勢推定、および形状伝達学習の問題に取り組みます。
新しい触覚入力があると、カスタマイズされた PF は、オブジェクトの新規性を追跡しながら、オブジェクト クラスとオブジェクトの姿勢の結合分布を更新します。
新しい物体が特定されると、その形状は GPIS を使用して再構築されます。
PF からの最大事後推定 (MAP) 推定を使用して GPIS の事前分布を確立することにより、既知の形状に関する知識を新しい形状の学習に転送できます。
全球形状推定に基づく探査手順は、アクティブなデータ取得をガイドし、十分な情報が得られた時点で探査を終了するために提案されています。
シミュレーションでの実験を通じて、提案されたフレームワークは、既知のオブジェクトのオブジェクト クラスと姿勢を推定し、新しい形状を学習する際の有効性と効率性を実証しました。
さらに、以前に学習した形状を確実に認識できます。

要約(オリジナル)

As humans can explore and understand the world through active touch, similar capability is desired for robots. In this paper, we address the problem of active tactile object recognition, pose estimation and shape transfer learning, where a customized particle filter (PF) and Gaussian process implicit surface (GPIS) is combined in a unified Bayesian framework. Upon new tactile input, the customized PF updates the joint distribution of the object class and object pose while tracking the novelty of the object. Once a novel object is identified, its shape will be reconstructed using GPIS. By grounding the prior of the GPIS with the maximum-a-posteriori (MAP) estimation from the PF, the knowledge about known shapes can be transferred to learn novel shapes. An exploration procedure based on global shape estimation is proposed to guide active data acquisition and terminate the exploration upon sufficient information. Through experiments in simulation, the proposed framework demonstrated its effectiveness and efficiency in estimating object class and pose for known objects and learning novel shapes. Furthermore, it can recognize previously learned shapes reliably.

arxiv情報

著者 Haodong Zheng,Andrei Jalba,Raymond H. Cuijpers,Wijnand IJsselsteijn,Sanne Schoenmakers
発行日 2024-10-11 09:49:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | A Bayesian Framework for Active Tactile Object Recognition, Pose Estimation and Shape Transfer Learning はコメントを受け付けていません

SmartPretrain: Model-Agnostic and Dataset-Agnostic Representation Learning for Motion Prediction

要約

自動運転車 (AV) が動的で人間とロボットが混在する環境で安全に動作するには、周囲のエージェントの将来の動きを予測することが不可欠です。
しかし、大規模な運転データセットが不足しているため、堅牢で一般化可能な運動予測モデルの開発が妨げられ、複雑な相互作用や道路形状を捕捉する能力が制限されています。
自然言語処理 (NLP) とコンピューター ビジョン (CV) の最近の進歩に触発され、自己教師あり学習 (SSL) は、豊富で転送可能なシーン表現を学習するためのモーション予測コミュニティで大きな注目を集めています。
それにもかかわらず、動き予測のための既存の事前トレーニング方法は主に特定のモデル アーキテクチャと単一のデータセットに焦点を当てており、そのスケーラビリティと汎用性が制限されています。
これらの課題に対処するために、モデルとデータセットに依存しない動き予測のための汎用的でスケーラブルな SSL フレームワークである SmartPretrain を提案します。
私たちのアプローチは、対照的 SSL と再構成的 SSL を統合し、生成パラダイムと識別パラダイムの両方の強みを活用して、アーキテクチャ上の制約を課すことなく、時空間進化と相互作用を効果的に表現します。
さらに、SmartPretrain は、複数のデータセットを統合するデータセットに依存しないシナリオ サンプリング戦略を採用し、データ量、多様性、堅牢性を強化します。
複数のデータセットに対する広範な実験により、SmartPretrain がデータセット、データ分割、主要指標全体で最先端の予測モデルのパフォーマンスを一貫して向上させることが実証されました。
たとえば、SmartPretrain は、Forecast-MAE の MissRate を 10.6% 大幅に削減します。
これらの結果は、小データ領域の制限から解放され、動き予測のための統合されたスケーラブルなソリューションとしての SmartPretrain の有効性を強調しています。
コードは https://github.com/youngzhou1999/SmartPretrain で入手できます。

要約(オリジナル)

Predicting the future motion of surrounding agents is essential for autonomous vehicles (AVs) to operate safely in dynamic, human-robot-mixed environments. However, the scarcity of large-scale driving datasets has hindered the development of robust and generalizable motion prediction models, limiting their ability to capture complex interactions and road geometries. Inspired by recent advances in natural language processing (NLP) and computer vision (CV), self-supervised learning (SSL) has gained significant attention in the motion prediction community for learning rich and transferable scene representations. Nonetheless, existing pre-training methods for motion prediction have largely focused on specific model architectures and single dataset, limiting their scalability and generalizability. To address these challenges, we propose SmartPretrain, a general and scalable SSL framework for motion prediction that is both model-agnostic and dataset-agnostic. Our approach integrates contrastive and reconstructive SSL, leveraging the strengths of both generative and discriminative paradigms to effectively represent spatiotemporal evolution and interactions without imposing architectural constraints. Additionally, SmartPretrain employs a dataset-agnostic scenario sampling strategy that integrates multiple datasets, enhancing data volume, diversity, and robustness. Extensive experiments on multiple datasets demonstrate that SmartPretrain consistently improves the performance of state-of-the-art prediction models across datasets, data splits and main metrics. For instance, SmartPretrain significantly reduces the MissRate of Forecast-MAE by 10.6%. These results highlight SmartPretrain’s effectiveness as a unified, scalable solution for motion prediction, breaking free from the limitations of the small-data regime. Codes are available at https://github.com/youngzhou1999/SmartPretrain

arxiv情報

著者 Yang Zhou,Hao Shao,Letian Wang,Steven L. Waslander,Hongsheng Li,Yu Liu
発行日 2024-10-11 09:52:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | SmartPretrain: Model-Agnostic and Dataset-Agnostic Representation Learning for Motion Prediction はコメントを受け付けていません

Bio-inspired reconfigurable stereo vision for robotics using omnidirectional cameras

要約

この研究では、全方位カメラと柔軟な視覚機能を実現する新しいアルゴリズムを活用した、ロボット工学のための、生物にインスピレーションを得た新しい再構成可能なステレオ ビジョン システムを紹介します。
さまざまな種の適応視覚にインスピレーションを得た当社の視覚システムは、ロボット工学に再構成可能な立体視システムを導入することで、従来の立体視の制限、つまり狭い視野での不変のカメラ位置合わせに対処します。
当社の主要なイノベーションには、動的なカメラの位置合わせを可能にする再構成可能なステレオ ビジョン戦略、特徴マッチングのためのディープ ニューラル ネットワークと組み合わせた非補正幾何学的手法を利用した堅牢な深度測定システム、および視覚精度を向上させる幾何学的補正技術が含まれます。
変態ロボットに実装されたこの視覚システムは、高速ターゲット探索のための 316{\deg} 単眼と 79{\deg} の両眼視野、および 150{\ の 242{\deg} 単眼の構成を切り替えることで、さまざまなシナリオへの優れた適応性を示します。
詳細な精密検査のための両眼視野。

要約(オリジナル)

This work introduces a novel bio-inspired reconfigurable stereo vision system for robotics, leveraging omnidirectional cameras and a novel algorithm to achieve flexible visual capabilities. Inspired by the adaptive vision of various species, our visual system addresses traditional stereo vision limitations, i.e., immutable camera alignment with narrow fields of view, by introducing a reconfigurable stereo vision system to robotics. Our key innovations include the reconfigurable stereo vision strategy that allows dynamic camera alignment, a robust depth measurement system utilizing a nonrectified geometrical method combined with a deep neural network for feature matching, and a geometrical compensation technique to enhance visual accuracy. Implemented on a metamorphic robot, this vision system demonstrates its great adaptability to various scenarios by switching its configurations of 316{\deg} monocular with 79{\deg} binocular field for fast target seeking and 242{\deg} monocular with 150{\deg} binocular field for detailed close inspection.

arxiv情報

著者 Suchang Chen,Dongliang Fan,Huijuan Feng,Jian S Dai
発行日 2024-10-11 10:24:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bio-inspired reconfigurable stereo vision for robotics using omnidirectional cameras はコメントを受け付けていません

RiskMap: A Unified Driving Context Representation for Autonomous Motion Planning in Urban Driving Environment

要約

動作計画は、特に渋滞時の運転時に、知覚、地図情報の統合、予測の組み合わせが必要となる複雑なタスクです。
センサーのノイズを視覚化し、リアルタイムの計画タスクの基礎を提供する、拡張可能で効率的な表現を開発することが望ましいです。
私たちは、タスクを計画する際にコストを事前に提示できる、解釈可能な地図表現を開発することを目指しています。
このようにして、複雑な運転シナリオに対処するための計画プロセスを簡素化し、センサーのノイズを視覚化できます。
具体的には、ディープ ニューラル ネットワークを活用した統一コンテキスト表現を提案します。
統一表現は微分可能なリスク フィールドであり、下流の計画タスクの交通参加者に関する統計的認知の分析表現です。
この表現方法をリスクマップと呼びます。
RiskMap 生成方法のトレーニングと比較には、サンプリング ベースのプランナーが採用されています。
この論文では、RiskMap 生成ツールとモデル構造を検討し、その結果は私たちの方法が運転の安全性とスムーズさを改善できることを示し、私たちの方法の限界についても説明します。

要約(オリジナル)

Motion planning is a complicated task that requires the combination of perception, map information integration and prediction, particularly when driving in heavy traffic. Developing an extensible and efficient representation that visualizes sensor noise and provides basis to real-time planning tasks is desirable. We aim to develop an interpretable map representation, which offers prior of driving cost in planning tasks. In this way, we can simplify the planning process for dealing with complex driving scenarios and visualize sensor noise. Specifically, we propose a unified context representation empowered by deep neural networks. The unified representation is a differentiable risk field, which is an analytical representation of statistical cognition regarding traffic participants for downstream planning tasks. This representation method is nominated as RiskMap. A sampling-based planner is adopted to train and compare RiskMap generation methods. In this paper, the RiskMap generation tools and model structures are explored, the results illustrate that our method can improve driving safety and smoothness, and the limitation of our method is also discussed.

arxiv情報

著者 Ren Xin,Sheng Wang,Yingbing Chen,Jie Cheng,Ming Liu,Jun Ma
発行日 2024-10-11 10:28:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RiskMap: A Unified Driving Context Representation for Autonomous Motion Planning in Urban Driving Environment はコメントを受け付けていません

The 1st InterAI Workshop: Interactive AI for Human-centered Robotics

要約

このワークショップは、2023 年 8 月 26 ~ 30 日 / 米国カリフォルニア州パサデナで開催される第 33 回 IEEE ロボットとヒューマン インタラクティブ コミュニケーションに関する国際会議 (RO-MAN 2024) に関連しています。
このイベントは半日イベントとして設計されており、太平洋標準時間の 9:00 から 12:30 までの 4 時間にわたって行われます。
対面参加者と仮想参加者 (Zoom 経由) の両方に対応し、柔軟な参加モードを保証します。
議題は、多様なセッションを含むように思慮深く作成されています。洞察力に富んだ視点を提供することを約束する 2 つの基調講演、2 つの専用の論文プレゼンテーション セッション、特定のトピックへのより深い掘り下げを促進する専門家間の対話を促進するインタラクティブなパネル ディスカッション、および 15 のセッションです。
1分間のコーヒーブレイク。
ワークショップの Web サイト: https://sites.google.com/view/interaiworkshops/home。

要約(オリジナル)

The workshop is affiliated with 33nd IEEE International Conference on Robot and Human Interactive Communication (RO-MAN 2024) August 26~30, 2023 / Pasadena, CA, USA. It is designed as a half-day event, extending over four hours from 9:00 to 12:30 PST time. It accommodates both in-person and virtual attendees (via Zoom), ensuring a flexible participation mode. The agenda is thoughtfully crafted to include a diverse range of sessions: two keynote speeches that promise to provide insightful perspectives, two dedicated paper presentation sessions, an interactive panel discussion to foster dialogue among experts which facilitates deeper dives into specific topics, and a 15-minute coffee break. The workshop website: https://sites.google.com/view/interaiworkshops/home.

arxiv情報

著者 Yuchong Zhang,Elmira Yadollahi,Yong Ma,Di Fu,Iolanda Leite,Danica Kragic
発行日 2024-10-11 11:26:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | The 1st InterAI Workshop: Interactive AI for Human-centered Robotics はコメントを受け付けていません

A Unification Between Deep-Learning Vision, Compartmental Dynamical Thermodynamics, and Robotic Manipulation for a Circular Economy

要約

線形経済から循環経済への移行は、材料供給と廃棄物の発生の不確実性を同時に軽減する可能性を秘めています。
しかし、これまでのところ、ロボットシステム、より一般的には自律システムの開発は、運用コストや廃棄物処理による汚染リスクを削減できる可能性があるにもかかわらず、循環経済の導入戦略に組み込まれることはほとんどありません。
さらに、円形性の科学には、モデルの精度と再現性を向上させるために必要な物理的基盤がまだ不足しています。
したがって、この論文では、深層学習ビジョン、コンパートメント動的熱力学、およびロボット操作を、理論的に一貫した物理学に基づいた研究フレームワークに統合して、材料の循環流設計の基礎を築きます。
提案されたフレームワークは、動的システム理論で強化されたランキン サイクルの設計アプローチを一般化することにより、循環性に取り組みます。
これは、主にマテリアルフロー分析(MFA)などのデータ分析に基づく循環経済への最先端のアプローチとは異なります。
我々は、上記の 3 つの研究分野の文献をレビューすることから始め、次に、提案された統一フレームワークを紹介し、ロボットによる廃棄物分別の強化学習制御の初期シミュレーション結果とともに、プラスチック システムへのフレームワークの初期適用について報告します。
これは、フレームワークの適用性、一般性、スケーラビリティ、および人工ニューラル システムの最適化と提案されたコンパートメント ネットワークの類似点と相違点を示しています。
最後に、循環経済におけるロボット工学の機会がまだ十分に活用されていないことと、提案されている循環性フレームワークの理論と実践における将来の課題について説明します。

要約(オリジナル)

The shift from a linear to a circular economy has the potential to simultaneously reduce uncertainties of material supplies and waste generation. However, to date, the development of robotic and, more generally, autonomous systems have been rarely integrated into circular economy implementation strategies despite their potential to reduce the operational costs and the contamination risks from handling waste. In addition, the science of circularity still lacks the physical foundations needed to improve the accuracy and the repeatability of the models. Hence, in this paper, we merge deep-learning vision, compartmental dynamical thermodynamics, and robotic manipulation into a theoretically-coherent physics-based research framework to lay the foundations of circular flow designs of materials. The proposed framework tackles circularity by generalizing the design approach of the Rankine cycle enhanced with dynamical systems theory. This differs from state-of-the-art approaches to circular economy, which are mainly based on data analysis, e.g., material flow analysis (MFA). We begin by reviewing the literature of the three abovementioned research areas, then we introduce the proposed unified framework and we report the initial application of the framework to plastics systems along with initial simulation results of reinforcement-learning control of robotic waste sorting. This shows the framework applicability, generality, scalability, and the similarity and difference between the optimization of artificial neural systems and the proposed compartmental networks. Finally, we discuss the still not fully exploited opportunities for robotics in circular economy and the future challenges in the theory and practice of the proposed circularity framework.

arxiv情報

著者 Federico Zocco,Wassim M. Haddad,Andrea Corti,Monica Malvezzi
発行日 2024-10-11 11:58:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.RO | A Unification Between Deep-Learning Vision, Compartmental Dynamical Thermodynamics, and Robotic Manipulation for a Circular Economy はコメントを受け付けていません

TřiVis: Versatile, Reliable, and High-Performance Tool for Computing Visibility in Polygonal Environments

要約

可視性は計算幾何学の基本概念であり、ロボット工学、監視システム、ビデオ ゲーム、その他の分野で数多くの応用がなされています。
このソフトウェア ペーパーでは、非常に複雑なポリゴン環境で多数の可視性関連のクエリを計算するために著者によって開発された C++ ライブラリである T\v{r}iVis について説明します。
三角展開アルゴリズム (TEA) を採用した T\v{r}iVis は、現在のソリューションに代わる多用途、高性能、より信頼性が高く、使いやすい代替手段として際立っており、依存性も高くありません。
困難なデータセットの評価を通じて、T\v{r}iVis は既存の可視性ライブラリに対してベンチマークが行われています。
結果は、T\v{r}iVis がクエリ時間において競合ソリューションよりも少なくとも 1 桁優れていると同時に、より信頼性の高い実行時の動作を示していることを示しています。
T\v{r}iVis は、https://github.com/janmikulacz/trivis から個人、研究、機関での使用に無料で利用できます。

要約(オリジナル)

Visibility is a fundamental concept in computational geometry, with numerous applications in robotics, surveillance systems, video games, and other fields. This software paper presents T\v{r}iVis, a C++ library developed by the authors for computing numerous visibility-related queries in highly complex polygonal environments. Adapting the triangular expansion algorithm (TEA), T\v{r}iVis stands out as a versatile, high-performance, more reliable and easy-to-use alternative to current solutions that is also free of heavy dependencies. Through evaluation on a challenging dataset, T\v{r}iVis has been benchmarked against existing visibility libraries. The results demonstrate that T\v{r}iVis outperforms the competing solutions by at least an order of magnitude in query times, while exhibiting more reliable runtime behavior. T\v{r}iVis is freely available for private, research, and institutional use at https://github.com/janmikulacz/trivis.

arxiv情報

著者 Jan Mikula,Miroslav Kulich
発行日 2024-10-11 12:12:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.RO | TřiVis: Versatile, Reliable, and High-Performance Tool for Computing Visibility in Polygonal Environments はコメントを受け付けていません