UAV-VLA: Vision-Language-Action System for Large Scale Aerial Mission Generation

要約

UAV-VLA (Visual-Language-Action) システムは、航空ロボットとのコミュニケーションを容易にするために設計されたツールです。
UAV-VLA は、衛星画像処理を Visual Language Model (VLM) および GPT の強力な機能と統合することにより、ユーザーが単純なテキスト リクエストを通じて一般的な飛行経路と行動計画を生成できるようにします。
このシステムは衛星画像によって提供される豊富なコンテキスト情報を活用し、意思決定とミッション計画の強化を可能にします。
VLM による視覚分析と GPT による自然言語処理を組み合わせることで、ユーザーに経路とアクションのセットが提供され、空中操作がより効率的でアクセスしやすくなります。
新たに開発された手法では、K 最近傍法 (KNN) 手法で、作成された軌道の長さの差が 22% であり、ユークリッド距離で 34.22 m の地図上で対象オブジェクトを見つける際の平均誤差が示されました。

要約(オリジナル)

The UAV-VLA (Visual-Language-Action) system is a tool designed to facilitate communication with aerial robots. By integrating satellite imagery processing with the Visual Language Model (VLM) and the powerful capabilities of GPT, UAV-VLA enables users to generate general flight paths-and-action plans through simple text requests. This system leverages the rich contextual information provided by satellite images, allowing for enhanced decision-making and mission planning. The combination of visual analysis by VLM and natural language processing by GPT can provide the user with the path-and-action set, making aerial operations more efficient and accessible. The newly developed method showed the difference in the length of the created trajectory in 22% and the mean error in finding the objects of interest on a map in 34.22 m by Euclidean distance in the K-Nearest Neighbors (KNN) approach.

arxiv情報

著者 Oleg Sautenkov,Yasheerah Yaqoot,Artem Lykov,Muhammad Ahsan Mustafa,Grik Tadevosyan,Aibek Akhmetkazy,Miguel Altamirano Cabrera,Mikhail Martynov,Sausar Karaf,Dzmitry Tsetserukou
発行日 2025-01-09 07:15:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク