要約
視覚障害者 (BLV) のためのロボットによる移動補助装置は、さまざまなナビゲーション タスクに特化した深層学習ベースの視覚モデルに大きく依存しています。
ただし、これらのモデルのパフォーマンスは、現実世界のデータセットの可用性と多様性によって制限されることが多く、さまざまなタスクに十分な量を収集することが困難です。
この研究では、この安全性が重要なアプリケーション向けの堅牢なビジョン モデルをトレーニングするための、Unreal Engine 4 を使用して生成された合成データの有効性を調査します。
私たちの調査結果は、合成データが複数のタスクにわたってモデルのパフォーマンスを向上させることができることを示しており、現実世界のデータと比較した場合にその可能性と限界の両方を示しています。
当社は、ロボットによる移動補助具の開発のための合成データ生成の最適化に関する貴重な洞察を提供します。
さらに、BLV 個人向けの支援技術に関する進行中の研究をサポートするために、生成された合成データセットを一般公開します。https://hchlhwang.github.io/SToP で入手できます。
要約(オリジナル)
Robotic mobility aids for blind and low-vision (BLV) individuals rely heavily on deep learning-based vision models specialized for various navigational tasks. However, the performance of these models is often constrained by the availability and diversity of real-world datasets, which are challenging to collect in sufficient quantities for different tasks. In this study, we investigate the effectiveness of synthetic data, generated using Unreal Engine 4, for training robust vision models for this safety-critical application. Our findings demonstrate that synthetic data can enhance model performance across multiple tasks, showcasing both its potential and its limitations when compared to real-world data. We offer valuable insights into optimizing synthetic data generation for developing robotic mobility aids. Additionally, we publicly release our generated synthetic dataset to support ongoing research in assistive technologies for BLV individuals, available at https://hchlhwang.github.io/SToP.
arxiv情報
著者 | Hochul Hwang,Krisha Adhikari,Satya Shodhaka,Donghyun Kim |
発行日 | 2024-09-17 13:17:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google