Studying the Impact of Latent Representations in Implicit Neural Networks for Scientific Continuous Field Reconstruction

要約

まばらなサンプリングから物理場の継続的かつ信頼性の高い表現を学習することは困難であり、さまざまな科学分野に影響を与えます。
最近の研究では、暗黙的ニューラル ネットワークを備えた MMGN (Multiplicative and Modulated Gabor Network) と呼ばれる新しいモデルを紹介しました。
この研究では、以前の実験を補完し、モデルによって生成された潜在表現の理解をさらに強化するために、説明可能性手法を活用した追加の研究を設計します。
採用された方法は、潜在空間の検査に活用できるほど一般的です。
予備的な結果は、潜在表現に組み込まれたコンテキスト情報と、それらがモデルのパフォーマンスに与える影響を示しています。
現在進行中の作業として、私たちは発見を検証し、新しい説明可能性アプローチを開発し続けます。

要約(オリジナル)

Learning a continuous and reliable representation of physical fields from sparse sampling is challenging and it affects diverse scientific disciplines. In a recent work, we present a novel model called MMGN (Multiplicative and Modulated Gabor Network) with implicit neural networks. In this work, we design additional studies leveraging explainability methods to complement the previous experiments and further enhance the understanding of latent representations generated by the model. The adopted methods are general enough to be leveraged for any latent space inspection. Preliminary results demonstrate the contextual information incorporated in the latent representations and their impact on the model performance. As a work in progress, we will continue to verify our findings and develop novel explainability approaches.

arxiv情報

著者 Wei Xu,Derek Freeman DeSantis,Xihaier Luo,Avish Parmar,Klaus Tan,Balu Nadiga,Yihui Ren,Shinjae Yoo
発行日 2024-04-09 16:07:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク