S3Former: Self-supervised High-resolution Transformer for Solar PV Profiling

要約

気候変動の影響が拡大するにつれ、持続可能なエネルギー源への移行の世界的な必要性がますます明らかになってきています。
再生可能エネルギーはユーザーにとって実行可能なソリューションとして浮上しており、太陽光発電はその信頼性と効率性により小規模設備に好まれる選択肢となっています。
太陽光発電設置の正確なマッピングは、その導入の拡大を理解し、エネルギー政策に情報を提供するために重要です。
このニーズを満たすために、航空写真からソーラー パネルをセグメント化し、そのような設置がグリッドに与える影響を分析するために重要なサイズと位置情報を提供するように設計された S3Former を導入します。
ソーラーパネルの識別は、さまざまな気象条件、屋根の特性、地上サンプリング距離の変動、最適化されたトレーニングのための適切な初期化重みの欠如などの要因により困難です。
これらの複雑さに対処するために、S3Former は、自己教師あり学習の事前トレーニングされたバックボーンを組み込んだ Masked Attendant Mask Transformer を備えています。
具体的には、私たちのモデルはバックボーンから抽出された低レベルおよび高レベルの機能を活用し、Transformer アーキテクチャに組み込まれたインスタンス クエリ メカニズムを組み込んで、太陽光発電設備の位置特定を強化します。
S3Former のバックボーン上の初期化の重みを改善するために、自己教師あり学習フェーズ (プリテキスト タスク) を導入します。
さまざまなデータセットを使用して S3Former を評価し、最先端のモデルの改善を実証しました。

要約(オリジナル)

As the impact of climate change escalates, the global necessity to transition to sustainable energy sources becomes increasingly evident. Renewable energies have emerged as a viable solution for users, with Photovoltaic energy being a favored choice for small installations due to its reliability and efficiency. Accurate mapping of PV installations is crucial for understanding the extension of its adoption and informing energy policy. To meet this need, we introduce S3Former, designed to segment solar panels from aerial imagery and provide size and location information critical for analyzing the impact of such installations on the grid. Solar panel identification is challenging due to factors such as varying weather conditions, roof characteristics, Ground Sampling Distance variations and lack of appropriate initialization weights for optimized training. To tackle these complexities, S3Former features a Masked Attention Mask Transformer incorporating a self-supervised learning pretrained backbone. Specifically, our model leverages low-level and high-level features extracted from the backbone and incorporates an instance query mechanism incorporated on the Transformer architecture to enhance the localization of solar PV installations. We introduce a self-supervised learning phase (pretext task) to improve the initialization weights on the backbone of S3Former. We evaluated S3Former using diverse datasets, demonstrate improvement state-of-the-art models.

arxiv情報

著者 Minh Tran,Adrian De Luis,Haitao Liao,Ying Huang,Roy McCann,Alan Mantooth,Jack Cothren,Ngan Le
発行日 2024-05-07 16:56:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク