Raven’s Progressive Matrices Completion with Latent Gaussian Process Priors

要約

抽象的な推論能力は、人間の知性の基本です。
これにより、人間は抽象的な概念間の関係を明らかにし、その関係から暗黙のルールをさらに導き出すことができます。
よく知られている抽象的な視覚的推論タスクとして、Raven のプログレッシブ マトリックス (RPM) は、人間の IQ テストで広く使用されています。
マシン インテリジェンスを備えた RPM ソルバーについて広範な研究が行われていますが、標準的な回答選択 (分類) 問題を、より困難な回答ペインティング (生成) 問題にさらに発展させることを検討した研究はほとんどありません。
暗黙のルール。
この論文では、深層潜在変数モデルを提案することで後者の問題を解決することを目指しています。このモデルでは、複数のガウス過程を潜在変数の事前確率として使用して、RPM から基礎となる抽象概念を個別に学習します。
したがって、提案されたモデルは、概念固有の潜在変数の観点から解釈可能です。
潜在的なガウス過程は、学習された概念変更規則に基づいて回答ペインティングを推定する効果的な方法も提供します。
複数の連続的に変化する視覚的概念を持つ RPM のようなデータセットで提案されたモデルを評価します。
実験結果は、高品質の回答を描画し、新しい RPM パネルを生成し、概念固有の潜在変数を通じて解釈可能性を達成するために、モデルが少数のトレーニング サンプルしか必要としないことを示しています。

要約(オリジナル)

Abstract reasoning ability is fundamental to human intelligence. It enables humans to uncover relations among abstract concepts and further deduce implicit rules from the relations. As a well-known abstract visual reasoning task, Raven’s Progressive Matrices (RPM) are widely used in human IQ tests. Although extensive research has been conducted on RPM solvers with machine intelligence, few studies have considered further advancing the standard answer-selection (classification) problem to a more challenging answer-painting (generating) problem, which can verify whether the model has indeed understood the implicit rules. In this paper we aim to solve the latter one by proposing a deep latent variable model, in which multiple Gaussian processes are employed as priors of latent variables to separately learn underlying abstract concepts from RPMs; thus the proposed model is interpretable in terms of concept-specific latent variables. The latent Gaussian process also provides an effective way of extrapolation for answer painting based on the learned concept-changing rules. We evaluate the proposed model on RPM-like datasets with multiple continuously-changing visual concepts. Experimental results demonstrate that our model requires only few training samples to paint high-quality answers, generate novel RPM panels, and achieve interpretability through concept-specific latent variables.

arxiv情報

著者 Fan Shi,Bin Li,Xiangyang Xue
発行日 2023-02-17 13:57:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク