Agile Mobility with Rapid Online Adaptation via Meta-learning and Uncertainty-aware MPPI

要約

最新の非線形モデルベースのコントローラーでは、モバイル ロボットを限界で制御できるように、正確な物理モデルとモデル パラメーターが必要です。
また、高速での表面の滑りにより、摩擦パラメーターが継続的に変化する可能性があり (自律走行レースにおけるタイヤの劣化など)、コントローラーが迅速に適応する必要がある場合があります。
多くの研究では、タスクにうまく機能するパラメーター適応スキームを備えたタスク固有のロボット モデルを導出していますが、プラットフォームやタスクごとに多大な労力と調整が必要です。
この研究では、メタ事前トレーニングに基づいた完全なモデル学習ベースのコントローラーを設計します。このコントローラーは、モデルの不確実性について推論しながら、数ショットのダイナミクス データを使用して、任意のモデル パラメーターを持つ車輪ベースのロボットに非常に迅速に適応できます。
小規模な数値シミュレーション、大規模な Unity シミュレーター、および幅広い設定を備えた中規模のハードウェア プラットフォームで結果を実証します。
私たちの結果は、ドメイン固有の適切に設計されたコントローラーと同等であり、すべてのシナリオにわたって優れた汎化パフォーマンスがあることを示しています。

要約(オリジナル)

Modern non-linear model-based controllers require an accurate physics model and model parameters to be able to control mobile robots at their limits. Also, due to surface slipping at high speeds, the friction parameters may continually change (like tire degradation in autonomous racing), and the controller may need to adapt rapidly. Many works derive a task-specific robot model with a parameter adaptation scheme that works well for the task but requires a lot of effort and tuning for each platform and task. In this work, we design a full model-learning-based controller based on meta pre-training that can very quickly adapt using few-shot dynamics data to any wheel-based robot with any model parameters, while also reasoning about model uncertainty. We demonstrate our results in small-scale numeric simulation, the large-scale Unity simulator, and on a medium-scale hardware platform with a wide range of settings. We show that our results are comparable to domain-specific well-engineered controllers, and have excellent generalization performance across all scenarios.

arxiv情報

著者 Dvij Kalaria,Haoru Xue,Wenli Xiao,Tony Tao,Guanya Shi,John M. Dolan
発行日 2024-10-09 05:59:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Disturbance Observer-based Control Barrier Functions with Residual Model Learning for Safe Reinforcement Learning

要約

強化学習 (RL) エージェントは、最適な行動を学習し、最大の報酬を達成するために環境を探索する必要があります。
ただし、実際のシステム上で RL を直接トレーニングする場合、探索には危険が伴う可能性がありますが、シミュレーションベースのトレーニングでは、シミュレーションと実際のギャップという厄介な問題が発生します。
最近のアプローチでは、コントロール バリア機能 (CBF) などの安全フィルターを利用して、RL トレーニング中に危険な行為を罰します。
ただし、CBF の強力な安全性保証は、正確な動的モデルに依存しています。
実際には、力学の誤差による内部擾乱や風などの外部擾乱など、不確実性が常に存在します。
この研究では、外乱拒否保護学習に基づいた新しい安全な RL フレームワークを提案します。これにより、想定される、しかし必ずしも正確ではない公称動的モデルを使用した、ほぼモデルフリーの RL が可能になります。
私たちは、ポイント ロボットとカー ロボットのセーフティ ジム ベンチマークで、残差モデル学習または外乱オブザーバー (DOB) のみを使用する最先端のアプローチを上回るすべてのタスクの結果を実証します。
さらに、物理的な F1/10 レーシング カーを使用してフレームワークの有効性を検証します。
ビデオ: https://sites.google.com/view/res-dob-cbf-rl

要約(オリジナル)

Reinforcement learning (RL) agents need to explore their environment to learn optimal behaviors and achieve maximum rewards. However, exploration can be risky when training RL directly on real systems, while simulation-based training introduces the tricky issue of the sim-to-real gap. Recent approaches have leveraged safety filters, such as control barrier functions (CBFs), to penalize unsafe actions during RL training. However, the strong safety guarantees of CBFs rely on a precise dynamic model. In practice, uncertainties always exist, including internal disturbances from the errors of dynamics and external disturbances such as wind. In this work, we propose a new safe RL framework based on disturbance rejection-guarded learning, which allows for an almost model-free RL with an assumed but not necessarily precise nominal dynamic model. We demonstrate our results on the Safety-gym benchmark for Point and Car robots on all tasks where we can outperform state-of-the-art approaches that use only residual model learning or a disturbance observer (DOB). We further validate the efficacy of our framework using a physical F1/10 racing car. Videos: https://sites.google.com/view/res-dob-cbf-rl

arxiv情報

著者 Dvij Kalaria,Qin Lin,John M. Dolan
発行日 2024-10-09 06:08:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

ES-Gaussian: Gaussian Splatting Mapping via Error Space-Based Gaussian Completion

要約

ロボットの効果的なナビゲーションとインタラクションには、正確かつ手頃な価格の屋内 3D 再構成が不可欠です。
従来の LiDAR ベースのマッピングは高精度を提供しますが、コストが高く、重く、電力を大量に消費し、新しいビューのレンダリングの能力が限られています。
ビジョンベースのマッピングは、費用対効果が高く、視覚データをキャプチャできますが、点群がまばらなため、高品質の 3D 再構成に苦労することがよくあります。
私たちは、高品質な屋内 3D 再構築のための低高度カメラとシングルライン LiDAR を使用するエンドツーエンド システムである ES-Gaussian を提案します。
当社のシステムは、2D エラー マップから幾何学的詳細が不十分な領域を特定して修正することで、まばらな点群を強化する Visual Error Construction (VEC) を備えています。
さらに、シングルライン LiDAR によってガイドされる新しい 3DGS 初期化方法を導入し、従来のマルチビュー設定の制限を克服し、リソースに制約のある環境で効果的な再構築を可能にします。
新しい Dreame-SR データセットと公開されているデータセットに関する広範な実験結果は、特に困難なシナリオにおいて、ES-Gaussian が既存の手法よりも優れていることを示しています。
プロジェクト ページは https://chenlu-china.github.io/ES-Gaussian/ から入手できます。

要約(オリジナル)

Accurate and affordable indoor 3D reconstruction is critical for effective robot navigation and interaction. Traditional LiDAR-based mapping provides high precision but is costly, heavy, and power-intensive, with limited ability for novel view rendering. Vision-based mapping, while cost-effective and capable of capturing visual data, often struggles with high-quality 3D reconstruction due to sparse point clouds. We propose ES-Gaussian, an end-to-end system using a low-altitude camera and single-line LiDAR for high-quality 3D indoor reconstruction. Our system features Visual Error Construction (VEC) to enhance sparse point clouds by identifying and correcting areas with insufficient geometric detail from 2D error maps. Additionally, we introduce a novel 3DGS initialization method guided by single-line LiDAR, overcoming the limitations of traditional multi-view setups and enabling effective reconstruction in resource-constrained environments. Extensive experimental results on our new Dreame-SR dataset and a publicly available dataset demonstrate that ES-Gaussian outperforms existing methods, particularly in challenging scenarios. The project page is available at https://chenlu-china.github.io/ES-Gaussian/.

arxiv情報

著者 Lu Chen,Yingfu Zeng,Haoang Li,Zhitao Deng,Jiafu Yan,Zhenjun Zhao
発行日 2024-10-09 07:09:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Pair-VPR: Place-Aware Pre-training and Contrastive Pair Classification for Visual Place Recognition with Vision Transformers

要約

この研究では、再ランキングのためのグローバル記述子とペア分類器を同時に学習する、視覚的場所認識 (VPR) のための新しい共同トレーニング方法を提案します。
ペア分類器は、指定された画像のペアが同じ場所からのものであるかどうかを予測できます。
ネットワークは、エンコーダーとペア分類器の両方の Vision Transformer コンポーネントのみで構成され、両方のコンポーネントはそれぞれのクラス トークンを使用してトレーニングされます。
既存の VPR 方法では、通常、ネットワークは ImageNet などの汎用画像データセットからの事前トレーニングされた重みを使用して初期化されます。
この研究では、事前トレーニング タスクとしてシャム マスク イメージ モデリングを使用する、代替の事前トレーニング戦略を提案します。
VPR 用に特別に調整された視覚的特徴を学習するために、モデルを事前トレーニングするために、大規模な VPR データセットのコレクションから場所を認識した画像サンプリング手順を提案します。
トレーニングの第 2 段階でマスク イメージ モデリングのエンコーダーとデコーダーの重みを再利用することにより、Pair-VPR は、ViT-B エンコーダーを使用して 5 つのベンチマーク データセットにわたって最先端の VPR パフォーマンスを達成し、さらにローカリゼーションを向上させることができます。
より大きなエンコーダーでリコールします。
ペア VPR の Web サイトは、https://csiro-robotics.github.io/Pair-VPR です。

要約(オリジナル)

In this work we propose a novel joint training method for Visual Place Recognition (VPR), which simultaneously learns a global descriptor and a pair classifier for re-ranking. The pair classifier can predict whether a given pair of images are from the same place or not. The network only comprises Vision Transformer components for both the encoder and the pair classifier, and both components are trained using their respective class tokens. In existing VPR methods, typically the network is initialized using pre-trained weights from a generic image dataset such as ImageNet. In this work we propose an alternative pre-training strategy, by using Siamese Masked Image Modelling as a pre-training task. We propose a Place-aware image sampling procedure from a collection of large VPR datasets for pre-training our model, to learn visual features tuned specifically for VPR. By re-using the Mask Image Modelling encoder and decoder weights in the second stage of training, Pair-VPR can achieve state-of-the-art VPR performance across five benchmark datasets with a ViT-B encoder, along with further improvements in localization recall with larger encoders. The Pair-VPR website is: https://csiro-robotics.github.io/Pair-VPR.

arxiv情報

著者 Stephen Hausler,Peyman Moghadam
発行日 2024-10-09 07:09:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | コメントする

Task Coordination and Trajectory Optimization for Multi-Aerial Systems via Signal Temporal Logic: A Wind Turbine Inspection Study

要約

この論文では、風力タービンの検査に焦点を当て、マルチコプタードローンのフリートを使用した共同検査ミッションにおけるタスクの割り当てと軌道生成の方法を紹介します。
このアプローチは、信号時間論理 (STL) 仕様に基づいて最適化問題を定式化することにより、時間に敏感な制約と車両の制限を遵守する安全で実現可能な飛行経路を生成します。
イベントトリガーの再計画メカニズムは予期せぬイベントや遅延に対処し、一般化された堅牢性スコアリング手法はユーザーの好みを組み込んでタスクの競合を最小限に抑えます。
このアプローチは、MATLAB と Gazebo でのシミュレーション、およびモックアップ シナリオでのフィールド実験を通じて検証されます。

要約(オリジナル)

This paper presents a method for task allocation and trajectory generation in cooperative inspection missions using a fleet of multirotor drones, with a focus on wind turbine inspection. The approach generates safe, feasible flight paths that adhere to time-sensitive constraints and vehicle limitations by formulating an optimization problem based on Signal Temporal Logic (STL) specifications. An event-triggered replanning mechanism addresses unexpected events and delays, while a generalized robustness scoring method incorporates user preferences and minimizes task conflicts. The approach is validated through simulations in MATLAB and Gazebo, as well as field experiments in a mock-up scenario.

arxiv情報

著者 Giuseppe Silano,Alvaro Caballero,Davide Liuzza,Luigi Iannelli,Stjepan Bogdan,Martin Saska
発行日 2024-10-09 07:16:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

M${}^{3}$Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes

要約

我々は、モバイル操作タスクのための全身動作生成のための新しいベンチマークである M^3Bench を提案します。
3D シーンのコンテキストが与えられると、M^3Bench では、身体化されたエージェントがその構成、環境制約、タスクの目的を理解し、オブジェクトの再配置タスクのために調整された全身運動の軌道を生成する必要があります。
M^3Bench は 119 の多様なシーンにわたる 30,000 のオブジェクト再配置タスクを備えており、新しく開発された M^3BenchMaker によって生成された専門家のデモンストレーションを提供します。
この自動データ生成ツールは、基本的なシーンとロボットの情報のみを必要とする、高レベルのタスク命令から調整された全身動作の軌跡を生成します。
私たちのベンチマークには、さまざまなタスク分割を組み込んで、さまざまな次元にわたる一般化を評価し、軌道評価のために現実的な物理シミュレーションを活用します。
広範な実験解析を通じて、最先端のモデルは、環境コンテキストやタスク固有の制約を遵守しながらも、ベースアームの動作を調整することに依然として苦労していることを明らかにし、このギャップに対処する新しいモデルを開発する必要性を強調しています。
私たちは、M^3Bench を通じて、現実世界の多様な環境における、より適応的で有能なモバイル操作に向けた将来のロボット研究を促進することを目指しています。

要約(オリジナル)

We propose M^3Bench, a new benchmark for whole-body motion generation for mobile manipulation tasks. Given a 3D scene context, M^3Bench requires an embodied agent to understand its configuration, environmental constraints and task objectives, then generate coordinated whole-body motion trajectories for object rearrangement tasks. M^3Bench features 30k object rearrangement tasks across 119 diverse scenes, providing expert demonstrations generated by our newly developed M^3BenchMaker. This automatic data generation tool produces coordinated whole-body motion trajectories from high-level task instructions, requiring only basic scene and robot information. Our benchmark incorporates various task splits to assess generalization across different dimensions and leverages realistic physics simulation for trajectory evaluation. Through extensive experimental analyses, we reveal that state-of-the-art models still struggle with coordinated base-arm motion while adhering to environment-context and task-specific constraints, highlighting the need to develop new models that address this gap. Through M^3Bench, we aim to facilitate future robotics research towards more adaptive and capable mobile manipulation in diverse, real-world environments.

arxiv情報

著者 Zeyu Zhang,Sixu Yan,Muzhi Han,Zaijin Wang,Xinggang Wang,Song-Chun Zhu,Hangxin Liu
発行日 2024-10-09 08:38:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | コメントする

HBTP: Heuristic Behavior Tree Planning with Large Language Model Reasoning

要約

ビヘイビア ツリー (BT) は、そのモジュール性、反応性、堅牢性により、ロボット工学における制御構造としてますます人気が高まっています。
BT 生成方法に関しては、BT 計画は信頼性の高い BT を生成する可能性を示しています。
ただし、BT 計画のスケーラビリティは、主にドメイン知識の不足が原因で、複雑なシナリオでの計画時間が長くなることで制限されることがよくあります。
対照的に、事前トレーニングされた大規模言語モデル (LLM) は、さまざまなドメインにわたってタスク推論機能を実証していますが、その計画の正確さと安全性は依然として不確実です。
この論文では、BT 計画を LLM 推論と統合し、BT 生成のための信頼性が高く効率的なフレームワークであるヒューリスティック動作ツリー計画 (HBTP) を導入することを提案します。
HBTP の重要なアイデアは、タスク固有の推論に LLM を活用してヒューリスティック パスを生成し、BT 計画がそのパスに従って効率的に拡張できるようにすることです。
まず、ヒューリスティック BT 拡張プロセスと、それぞれ最適な計画と満足のいく計画のために設計された 2 つのヒューリスティック バリアントを紹介します。
次に、アクション空間の枝刈りや反射フィードバックなど、LLM 推論の不正確さに対処し、推論の精度と計画効率の両方をさらに向上させる方法を提案します。
実験では HBTP の理論的限界を実証し、4 つのデータセットの結果により、日常のサービス ロボット アプリケーションにおけるその実際の有効性が確認されています。

要約(オリジナル)

Behavior Trees (BTs) are increasingly becoming a popular control structure in robotics due to their modularity, reactivity, and robustness. In terms of BT generation methods, BT planning shows promise for generating reliable BTs. However, the scalability of BT planning is often constrained by prolonged planning times in complex scenarios, largely due to a lack of domain knowledge. In contrast, pre-trained Large Language Models (LLMs) have demonstrated task reasoning capabilities across various domains, though the correctness and safety of their planning remain uncertain. This paper proposes integrating BT planning with LLM reasoning, introducing Heuristic Behavior Tree Planning (HBTP)-a reliable and efficient framework for BT generation. The key idea in HBTP is to leverage LLMs for task-specific reasoning to generate a heuristic path, which BT planning can then follow to expand efficiently. We first introduce the heuristic BT expansion process, along with two heuristic variants designed for optimal planning and satisficing planning, respectively. Then, we propose methods to address the inaccuracies of LLM reasoning, including action space pruning and reflective feedback, to further enhance both reasoning accuracy and planning efficiency. Experiments demonstrate the theoretical bounds of HBTP, and results from four datasets confirm its practical effectiveness in everyday service robot applications.

arxiv情報

著者 Yishuai Cai,Xinglin Chen,Yunxin Mao,Minglong Li,Shaowu Yang,Wenjing Yang,Ji Wang
発行日 2024-10-09 08:55:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

ScissorBot: Learning Generalizable Scissor Skill for Paper Cutting via Simulation, Imitation, and Sim2Real

要約

この論文では、ハサミを使用して一般化可能な紙を切断するという難しいロボット タスクに取り組みます。
上端を固定して吊るした紙に描かれた曲線を、ロボットアームに取り付けたハサミを駆動して正確に切る作業です。
頻繁に紙とハサミが接触し、その結果として破損するため、紙は継続的に変形し、トポロジーが変化するという特徴があり、正確なモデリングが困難です。
効果的な実行を保証するために、模倣学習用のアクション プリミティブ シーケンスをカスタマイズしてアクション スペースを制限し、潜在的な複合エラーを軽減します。
最後に、シミュレーションと現実の間のギャップを埋めるためにシミュレーションと現実のテクニックを統合することにより、私たちのポリシーを実際のロボットに効果的に展開できます。
実験結果は、私たちの方法がシミュレーションと現実世界のベンチマークの両方ですべてのベースラインを上回り、同じ条件下で人間の片手による操作に匹敵するパフォーマンスを達成することを示しています。

要約(オリジナル)

This paper tackles the challenging robotic task of generalizable paper cutting using scissors. In this task, scissors attached to a robot arm are driven to accurately cut curves drawn on the paper, which is hung with the top edge fixed. Due to the frequent paper-scissor contact and consequent fracture, the paper features continual deformation and changing topology, which is diffult for accurate modeling. To ensure effective execution, we customize an action primitive sequence for imitation learning to constrain its action space, thus alleviating potential compounding errors. Finally, by integrating sim-to-real techniques to bridge the gap between simulation and reality, our policy can be effectively deployed on the real robot. Experimental results demonstrate that our method surpasses all baselines in both simulation and real-world benchmarks and achieves performance comparable to human operation with a single hand under the same conditions.

arxiv情報

著者 Jiangran Lyu,Yuxing Chen,Tao Du,Feng Zhu,Huiquan Liu,Yizhou Wang,He Wang
発行日 2024-10-09 08:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Autonomous localization of multiple ionizing radiation sources using miniature single-layer Compton cameras onboard a group of micro aerial vehicles

要約

この論文では、超小型航空機 (MAV) のグループを使用して複数のガンマ線源の自律位置を特定するための新しい方法を紹介します。
この方法では、非常に軽量 (44 g) のコンプトン カメラ MiniPIX TPX3 を使用します。
検出器のコンパクトなサイズにより、安全かつ機敏な小型無人航空機 (UAV) への搭載が可能になります。
提案された放射線マッピング手法は、複数の分散型コンプトン カメラ センサーからの測定値を融合して、複数の放射線源の位置をリアルタイムで正確に推定します。
一般に使用される強度ベースの検出器とは異なり、コンプトン カメラは、単一の電離粒子から放射線源に向かう可能性のある一連の方向を再構成します。
したがって、提案されたアプローチは、より長い測定を必要とする放射線場の勾配や等高線を推定することなく、放射線源の位置を特定することができます。
瞬時の推定により、機動性の高い MAV の可能性を最大限に活用できます。
放射線マッピング手法は、放射線源の位置推定の品質を向上させ、対象領域をより迅速に探索するために、MAV の今後の動作を調整するアクティブ探索戦略と組み合わされます。
提案されたソリューションは、複数のセシウム 137 放射線源を使用したシミュレーションと実際の実験で評価されます。

要約(オリジナル)

A novel method for autonomous localization of multiple sources of gamma radiation using a group of Micro Aerial Vehicles (MAVs) is presented in this paper. The method utilizes an extremely lightweight (44 g) Compton camera MiniPIX TPX3. The compact size of the detector allows for deployment onboard safe and agile small-scale Unmanned Aerial Vehicles (UAVs). The proposed radiation mapping approach fuses measurements from multiple distributed Compton camera sensors to accurately estimate the positions of multiple radioactive sources in real time. Unlike commonly used intensity-based detectors, the Compton camera reconstructs the set of possible directions towards a radiation source from just a single ionizing particle. Therefore, the proposed approach can localize radiation sources without having to estimate the gradient of a radiation field or contour lines, which require longer measurements. The instant estimation is able to fully exploit the potential of highly mobile MAVs. The radiation mapping method is combined with an active search strategy, which coordinates the future actions of the MAVs in order to improve the quality of the estimate of the sources’ positions, as well as to explore the area of interest faster. The proposed solution is evaluated in simulation and real world experiments with multiple Cesium-137 radiation sources.

arxiv情報

著者 Michal Werner,Tomáš Báča,Petr Štibinger,Daniela Doubravová,Jaroslav Šolc,Jan Rusňák,Martin Saska
発行日 2024-10-09 08:59:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB

要約

単眼 RGB 入力を使用した動的環境における短期的なオブジェクトの姿勢追跡の課題に対処するために、現実世界の条件の多様性を反映するように作成された大規模な合成データセット OmniPose6D を導入します。
さらに、姿勢追跡アルゴリズムを包括的に比較するためのベンチマーク フレームワークも紹介します。
確率的モデリングを採用して姿勢推定を改良する、不確実性を認識したキーポイント改良ネットワークを特徴とするパイプラインを提案します。
比較評価により、私たちのアプローチが実際のデータセットで既存のベースラインよりも優れたパフォーマンスを達成していることが実証され、動的コンテキストでの追跡精度を向上させる際の合成データセットと洗練技術の有効性が強調されています。
私たちの貢献は、複雑なシーンにおけるオブジェクトの姿勢追跡手法の開発と評価における新たな先例を作りました。

要約(オリジナル)

To address the challenge of short-term object pose tracking in dynamic environments with monocular RGB input, we introduce a large-scale synthetic dataset OmniPose6D, crafted to mirror the diversity of real-world conditions. We additionally present a benchmarking framework for a comprehensive comparison of pose tracking algorithms. We propose a pipeline featuring an uncertainty-aware keypoint refinement network, employing probabilistic modeling to refine pose estimation. Comparative evaluations demonstrate that our approach achieves performance superior to existing baselines on real datasets, underscoring the effectiveness of our synthetic dataset and refinement technique in enhancing tracking precision in dynamic contexts. Our contributions set a new precedent for the development and assessment of object pose tracking methodologies in complex scenes.

arxiv情報

著者 Yunzhi Lin,Yipu Zhao,Fu-Jen Chu,Xingyu Chen,Weiyao Wang,Hao Tang,Patricio A. Vela,Matt Feiszli,Kevin Liang
発行日 2024-10-09 09:01:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする