要約
リモート センシング大型マルチモーダル モデル (RSLMM) は急速に開発されており、リモート センシング画像 (RSI) の理解における重要な機能を示しています。
ただし、既存のデータセットの制限により、RSLMM には、複雑なリモート センシング シーンにおけるオブジェクト間の豊富な意味関係を理解するには欠点があります。
RSLMM の複雑な理解能力を解き放つために、1,800,851 個の命令サンプルを含む大規模な命令調整データセット FIT-RS を提案します。
FIT-RS は一般的な解釈タスクをカバーし、関係推論から画像レベルのシーン グラフ生成に至るまで、難易度が段階的に増加するいくつかの複雑な理解タスクを革新的に導入します。
FIT-RS に基づいて、FIT-RSFG ベンチマークを構築します。
さらに、LMM の詳細な関係理解機能を評価するための、FIT-RSRC という新しいベンチマークを確立します。
結合された命令データに基づいて、公開データセットと FIT-RSFG の両方で既存の RSLMM を超える優れたパフォーマンスを達成する SkySenseGPT を提案します。
私たちは、FIT-RS データセットが RSLMM の関係理解能力を強化し、リモート センシング コミュニティに大規模で粒度の細かいデータ ソースを提供できることを期待しています。
データセットは https://github.com/Luo-Z13/SkySenseGPT で入手できます。
要約(オリジナル)
Remote Sensing Large Multi-Modal Models (RSLMMs) are developing rapidly and showcase significant capabilities in remote sensing imagery (RSI) comprehension. However, due to the limitations of existing datasets, RSLMMs have shortcomings in understanding the rich semantic relations among objects in complex remote sensing scenes. To unlock RSLMMs’ complex comprehension ability, we propose a large-scale instruction tuning dataset FIT-RS, containing 1,800,851 instruction samples. FIT-RS covers common interpretation tasks and innovatively introduces several complex comprehension tasks of escalating difficulty, ranging from relation reasoning to image-level scene graph generation. Based on FIT-RS, we build the FIT-RSFG benchmark. Furthermore, we establish a new benchmark to evaluate the fine-grained relation comprehension capabilities of LMMs, named FIT-RSRC. Based on combined instruction data, we propose SkySenseGPT, which achieves outstanding performance on both public datasets and FIT-RSFG, surpassing existing RSLMMs. We hope the FIT-RS dataset can enhance the relation comprehension capability of RSLMMs and provide a large-scale fine-grained data source for the remote sensing community. The dataset will be available at https://github.com/Luo-Z13/SkySenseGPT
arxiv情報
著者 | Junwei Luo,Zhen Pang,Yongjun Zhang,Tingzhu Wang,Linlin Wang,Bo Dang,Jiangwei Lao,Jian Wang,Jingdong Chen,Yihua Tan,Yansheng Li |
発行日 | 2024-06-14 14:57:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google