要約
注釈付きのデータセットは、オブジェクトの検出のためにニューラルネットワークをトレーニングするために重要ですが、それらの手動作成は時間的かつ労働集約的であり、ヒューマンエラーに主観的であり、しばしば多様性が限られています。
この課題は、ロボット工学のドメインで特に顕著であり、多様で動的なシナリオが代表的なデータセットの作成をさらに複雑にします。
これに対処するために、Unreal Engineで注釈付きの合成データを自動的に生成するための新しい方法を提案します。
私たちのアプローチは、迅速な合成データ生成のために、フォトリアリックな3Dガウススプラットを活用しています。
合成データセットは、実際のデータセットのパフォーマンスに匹敵するパフォーマンスを実現しながら、データの生成と注釈に必要な時間を大幅に削減できることを実証します。
さらに、実際のデータと合成データを組み合わせることで、合成データのスケーラビリティが容易になり、実世界の画像の品質を活用することにより、オブジェクト検出パフォーマンスが大幅に向上します。
私たちの知る限り、これは、ロボットサッカーの非常に動的で多様な環境でオブジェクト検出アルゴリズムをトレーニングするための合成データの最初のアプリケーションです。
検証実験では、合成画像で訓練された検出器は、ロボットサッカーマッチシナリオでテストされたときに手動で注釈された実世界画像でトレーニングされた1つで並行して実行されることが明らかになりました。
私たちの方法は、従来のデータセット作成のスケーラブルで包括的な代替品を提供し、労働集約型エラーが発生しやすいマニュアルアノテーションプロセスを排除します。
すべての要素が本質的に知られているシミュレーターでデータセットを生成することにより、正確な注釈を確保しながら、手動の努力を大幅に削減するため、多様でスケーラブルなトレーニングデータを必要とするロボット工学アプリケーションにとって特に価値があります。
要約(オリジナル)
Annotated datasets are critical for training neural networks for object detection, yet their manual creation is time- and labour-intensive, subjective to human error, and often limited in diversity. This challenge is particularly pronounced in the domain of robotics, where diverse and dynamic scenarios further complicate the creation of representative datasets. To address this, we propose a novel method for automatically generating annotated synthetic data in Unreal Engine. Our approach leverages photorealistic 3D Gaussian splats for rapid synthetic data generation. We demonstrate that synthetic datasets can achieve performance comparable to that of real-world datasets while significantly reducing the time required to generate and annotate data. Additionally, combining real-world and synthetic data significantly increases object detection performance by leveraging the quality of real-world images with the easier scalability of synthetic data. To our knowledge, this is the first application of synthetic data for training object detection algorithms in the highly dynamic and varied environment of robot soccer. Validation experiments reveal that a detector trained on synthetic images performs on par with one trained on manually annotated real-world images when tested on robot soccer match scenarios. Our method offers a scalable and comprehensive alternative to traditional dataset creation, eliminating the labour-intensive error-prone manual annotation process. By generating datasets in a simulator where all elements are intrinsically known, we ensure accurate annotations while significantly reducing manual effort, which makes it particularly valuable for robotics applications requiring diverse and scalable training data.
arxiv情報
著者 | Aneesh Deogan,Wout Beks,Peter Teurlings,Koen de Vos,Mark van den Brand,Rene van de Molengraft |
発行日 | 2025-06-05 14:37:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google