Missingness Augmentation: A General Approach for Improving Generative Imputation Models

要約

タイトル: 欠損オーグメンテーション:生成的補間モデルを改善するための一般的なアプローチ

要約:

– 欠損データ補間は、データ分析における基本的な問題であり、多くの研究がモデル構造と学習手法を探求して性能を向上させるために行われています。
– しかし、シンプルで効果的な方法であるデータオーグメンテーションには、この領域で十分な注目が集まっていませんでした。
– この論文では、生成的補間モデルのための Missingness Augmentation (MisA) という新しいデータオーグメンテーション方法を提案します。
– 私たちのアプローチは、ジェネレータの出力を利用して各 epoch で動的に不完全なサンプルを生成し、簡単な再構成損失を用いて拡張されたサンプルを制約し、この損失を元の損失と組み合わせて最終的な最適化目的関数を形成するものです。
– 一般的なオーグメンテーションテクニックとして、MisA は生成的補間フレームワークに簡単に統合でき、性能を向上させるためのシンプルで効果的な方法を提供します。
– 実験結果は、MisA がさまざまな表形式および画像データセットで最近提案された多くの生成的補間モデルの性能を大幅に改善することを示しています。
– コードは\url{https://github.com/WYu-Feng/Missingness-Augmentation}で利用可能です。

要約(オリジナル)

Missing data imputation is a fundamental problem in data analysis, and many studies have been conducted to improve its performance by exploring model structures and learning procedures. However, data augmentation, as a simple yet effective method, has not received enough attention in this area. In this paper, we propose a novel data augmentation method called Missingness Augmentation (MisA) for generative imputation models. Our approach dynamically produces incomplete samples at each epoch by utilizing the generator’s output, constraining the augmented samples using a simple reconstruction loss, and combining this loss with the original loss to form the final optimization objective. As a general augmentation technique, MisA can be easily integrated into generative imputation frameworks, providing a simple yet effective way to enhance their performance. Experimental results demonstrate that MisA significantly improves the performance of many recently proposed generative imputation models on a variety of tabular and image datasets. The code is available at \url{https://github.com/WYu-Feng/Missingness-Augmentation}.

arxiv情報

著者 Yufeng Wang,Dan Li,Cong Xu,Min Yang
発行日 2023-04-06 06:05:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク