YOLO-BEV: Generating Bird’s-Eye View in the Same Way as 2D Object Detection

要約

車両認識システムは、安全性とナビゲーションを向上させるために、周囲の包括的かつ迅速な視覚的解釈を実現するよう努めています。
独自の周囲カメラ設定を利用して車両環境の 2D 鳥瞰図を生成する効率的なフレームワークである YOLO-BEV を紹介します。
8 台のカメラをそれぞれ 45 度間隔で戦略的に配置することにより、当社のシステムは画像をキャプチャして一貫した 3×3 グリッド形式に統合し、中央を空白のままにし、効率的な処理を促進する豊かな空間表現を提供します。
私たちのアプローチでは、YOLO の検出メカニズムを採用し、迅速な応答とコンパクトなモデル構造という本来の利点を生かします。
従来のYOLO検出ヘッドを利用する代わりに、カスタム設計の検出ヘッドを追加して、パノラマで取得したデータを自車の統一鳥瞰図マップに変換します。
予備的な結果は、リアルタイムの車両認識タスクにおける YOLO-BEV の実現可能性を検証します。
合理化されたアーキテクチャと最小限のパラメータによる迅速な導入の可能性により、YOLO-BEV は自動運転システムの将来の展望を再構築する可能性のある有望なツールとして機能します。

要約(オリジナル)

Vehicle perception systems strive to achieve comprehensive and rapid visual interpretation of their surroundings for improved safety and navigation. We introduce YOLO-BEV, an efficient framework that harnesses a unique surrounding cameras setup to generate a 2D bird’s-eye view of the vehicular environment. By strategically positioning eight cameras, each at a 45-degree interval, our system captures and integrates imagery into a coherent 3×3 grid format, leaving the center blank, providing an enriched spatial representation that facilitates efficient processing. In our approach, we employ YOLO’s detection mechanism, favoring its inherent advantages of swift response and compact model structure. Instead of leveraging the conventional YOLO detection head, we augment it with a custom-designed detection head, translating the panoramically captured data into a unified bird’s-eye view map of ego car. Preliminary results validate the feasibility of YOLO-BEV in real-time vehicular perception tasks. With its streamlined architecture and potential for rapid deployment due to minimized parameters, YOLO-BEV poses as a promising tool that may reshape future perspectives in autonomous driving systems.

arxiv情報

著者 Chang Liu,Liguo Zhou,Yanliang Huang,Alois Knoll
発行日 2023-10-26 13:16:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク