要約
掘削作業の重要なコンポーネントであるジオステアリングには、従来、坑井のログ データなどのさまざまなデータ ソースを手動で解釈することが含まれていました。
これにより、主観的な偏見や一貫性のない手順が生じます。
貪欲な最適化と近似動的計画法 (ADP) を使用してジオステアリング決定の最適化を解決するという学術的な試みは有望であることが示されましたが、現実的な多様なシナリオへの適応性が欠けていました。
強化学習 (RL) はこれらの課題に対する解決策を提供し、報酬ベースの反復学習を通じて最適な意思決定を促進します。
粒子フィルター (PF) などの状態推定手法は、オンライン情報に基づいたジオステアリングの意思決定に補完的な戦略を提供します。
RL ベースのジオステアリングを PF と統合して、現実的なジオステアリング シナリオに対処します。
私たちのフレームワークは、PF をデプロイしてリアルタイムの坑井ログ データを処理し、層序層に対する坑井の位置を推定し、それを RL ベースの意思決定プロセスに通知します。
この方法のパフォーマンスを、RL または PF のいずれかのみを使用した場合と比較します。
私たちの調査結果は、最適化されたジオステアリングの決定を生み出す上で、RL と PF の間の相乗効果を示しています。
要約(オリジナル)
Geosteering, a key component of drilling operations, traditionally involves manual interpretation of various data sources such as well-log data. This introduces subjective biases and inconsistent procedures. Academic attempts to solve geosteering decision optimization with greedy optimization and Approximate Dynamic Programming (ADP) showed promise but lacked adaptivity to realistic diverse scenarios. Reinforcement learning (RL) offers a solution to these challenges, facilitating optimal decision-making through reward-based iterative learning. State estimation methods, e.g., particle filter (PF), provide a complementary strategy for geosteering decision-making based on online information. We integrate an RL-based geosteering with PF to address realistic geosteering scenarios. Our framework deploys PF to process real-time well-log data to estimate the location of the well relative to the stratigraphic layers, which then informs the RL-based decision-making process. We compare our method’s performance with that of using solely either RL or PF. Our findings indicate a synergy between RL and PF in yielding optimized geosteering decisions.
arxiv情報
著者 | Ressi Bonti Muhammad,Apoorv Srivastava,Sergey Alyaev,Reidar Brumer Bratvold,Daniel M. Tartakovsky |
発行日 | 2024-02-09 12:54:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google