要約
山火事の予測は、人文科学が成功を収めたいと考えている最も重要なタスクの 1 つです。
人の命を守る重要な役割を担っています。
一方、山火事の予測は、その確率論的および混沌とした性質のために困難です。
一連の山火事の画像をビデオとして解釈することで問題に取り組み、それを使用して、火事が将来どのように振る舞うかを予測しました。
ただし、将来固有の不確実性を説明するビデオ予測モデルを作成することは困難です。
公開された試みの大部分は、確率的画像自己回帰回帰ネットワークに基づいており、計算コストや大規模なデータセットでの効率の制限など、さまざまなパフォーマンスとアプリケーションの問題を引き起こします。
別の可能性は、フレーム合成と時間ダイナミクスを組み合わせた完全に潜在的な時間モデルを使用することです。
ただし、設計とトレーニングの問題により、確率的ビデオ予測のそのようなモデルは文献でまだ提案されていません。
この論文では、ダイナミクスが潜在空間で駆動される新しい確率的時間モデルを導入することにより、これらの問題に対処します。
GOES-16 データセットに対する以前の最先端のアプローチよりも軽量で解釈しやすい潜在モデルを使用できるようにすることで、動画のダイナミクスを自然に予測します。
結果は、さまざまなベンチマーク モデルと比較されます。
要約(オリジナル)
Wildfire forecasting has been one of the most critical tasks that humanities want to thrive. It plays a vital role in protecting human life. Wildfire prediction, on the other hand, is difficult because of its stochastic and chaotic properties. We tackled the problem by interpreting a series of wildfire images as a video and used it to anticipate how the fire would behave in the future. However, creating video prediction models that account for the inherent uncertainty of the future is challenging. The bulk of published attempts is based on stochastic image-autoregressive recurrent networks, which raises various performance and application difficulties, such as computational cost and limited efficiency on massive datasets. Another possibility is to use entirely latent temporal models that combine frame synthesis and temporal dynamics. However, due to design and training issues, no such model for stochastic video prediction has yet been proposed in the literature. This paper addresses these issues by introducing a novel stochastic temporal model whose dynamics are driven in a latent space. It naturally predicts video dynamics by allowing our lighter, more interpretable latent model to beat previous state-of-the-art approaches on the GOES-16 dataset. Results will be compared towards various benchmarking models.
arxiv情報
著者 | Thai-Nam Hoang,Sang Truong,Chris Schmidt |
発行日 | 2022-08-22 13:30:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google