要約
パラメーターの予測は多くのアプリケーションにとって不可欠であり、洞察力に富んだ解釈と意思決定を容易にします。
ただし、電力システム、医療、エンジニアリングなどの多くの現実の分野では、大規模で高価な実験室テストが必要となる場合があるため、特定のデータセットのグラウンド トゥルース ラベルを取得するのに非常に費用がかかる場合があります。
この研究では、自己組織化マップ (SOM) の位相投影に基づく半教師あり学習アプローチを導入します。これにより、パラメーター予測を実行するために必要なラベル付きデータ ポイントの数が大幅に削減され、大規模なラベルなしデータセットに含まれる情報が効果的に活用されます。
私たちが提案する方法では、最初にラベルなしデータで SOM をトレーニングし、次に利用可能な最小限のラベル付きデータ ポイントが主要なベスト マッチング ユニット (BMU) に割り当てられます。
新しく遭遇したデータポイントの推定値は、トポロジカル最短経路距離計算スキームと並行して、SOM の U 行列内の $n$ 最も近いラベル付きデータポイントの平均を利用して計算されます。
私たちの結果は、提案された最小教師ありモデルが、線形回帰および多項式回帰、ガウス過程回帰、K 最近傍法、ディープ ニューラル ネットワーク モデルおよび関連するクラスタリング スキームなどの従来の回帰手法を大幅に上回るパフォーマンスを示していることを示しています。
要約(オリジナル)
Parameter prediction is essential for many applications, facilitating insightful interpretation and decision-making. However, in many real life domains, such as power systems, medicine, and engineering, it can be very expensive to acquire ground truth labels for certain datasets as they may require extensive and expensive laboratory testing. In this work, we introduce a semi-supervised learning approach based on topological projections in self-organizing maps (SOMs), which significantly reduces the required number of labeled data points to perform parameter prediction, effectively exploiting information contained in large unlabeled datasets. Our proposed method first trains SOMs on unlabeled data and then a minimal number of available labeled data points are assigned to key best matching units (BMU). The values estimated for newly-encountered data points are computed utilizing the average of the $n$ closest labeled data points in the SOM’s U-matrix in tandem with a topological shortest path distance calculation scheme. Our results indicate that the proposed minimally supervised model significantly outperforms traditional regression techniques, including linear and polynomial regression, Gaussian process regression, K-nearest neighbors, as well as deep neural network models and related clustering schemes.
arxiv情報
著者 | Zimeng Lyu,Alexander Ororbia,Rui Li,Travis Desell |
発行日 | 2024-02-15 18:15:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google