Non-contrastive representation learning for intervals from well logs

要約

タイトル: 非コントラスト表現学習によるウェルログのインターバル分析
要約:
– 石油・ガス業界における表現学習問題は、ウェルログデータに基づく表現を提供するモデルを構築することを目的としています。
– 以前の試みは主に監督学習であり、似ている区間の近さを評価する類似性タスクに焦点を当てています。
– 監督的なラベル付けデータを使用せずに、情報を提供する表現を構築することを望んでいます。
– 自己教師あり学習(SSL)は、ラベル付けデータを少なくまたは全く必要としないことが特徴です。
– コントラスト法と非コントラスト法の2つの主要な学習方法があります。
– コントラスト法は、類似する(正)オブジェクトの表現を近く、異なる(負)オブジェクトの表現を遠くすることによって学習します。
– 非コントラスト法は、このようなラベル付けに頼らず、コンピュータビジョンで広く使用されています。
– BYOLとBarlow Twins法の説明とともに、ウェルログデータの非コントラスト自己教師付き学習を紹介します。
– ポジティブなペアのマッチングに焦点を当て、ネガティブなペアを現在の方法に必要がないことにし、バイオレット戸棚法を採用することに成功しました。
– 当社の変更方法が訓練プロセスを最適化し、クラスタリングやさまざまな分類タスクの最高のパフォーマンスを実現したことを示しています。
– インターバルの類似性に非コントラスト自己教師付きアプローチが有用であることが証明されました。

要約(オリジナル)

The representation learning problem in the oil & gas industry aims to construct a model that provides a representation based on logging data for a well interval. Previous attempts are mainly supervised and focus on similarity task, which estimates closeness between intervals. We desire to build informative representations without using supervised (labelled) data. One of the possible approaches is self-supervised learning (SSL). In contrast to the supervised paradigm, this one requires little or no labels for the data. Nowadays, most SSL approaches are either contrastive or non-contrastive. Contrastive methods make representations of similar (positive) objects closer and distancing different (negative) ones. Due to possible wrong marking of positive and negative pairs, these methods can provide an inferior performance. Non-contrastive methods don’t rely on such labelling and are widespread in computer vision. They learn using only pairs of similar objects that are easier to identify in logging data. We are the first to introduce non-contrastive SSL for well-logging data. In particular, we exploit Bootstrap Your Own Latent (BYOL) and Barlow Twins methods that avoid using negative pairs and focus only on matching positive pairs. The crucial part of these methods is an augmentation strategy. Our augmentation strategies and adaption of BYOL and Barlow Twins together allow us to achieve superior quality on clusterization and mostly the best performance on different classification tasks. Our results prove the usefulness of the proposed non-contrastive self-supervised approaches for representation learning and interval similarity in particular.

arxiv情報

著者 Alexander Marusov,Alexey Zaytsev
発行日 2023-04-05 12:18:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク