要約
ニューラル ネットワークは構成の一般化に引き続き苦労しており、この問題は大規模な事前トレーニングの欠如によって悪化しています。
人間のような構成的一般化を示す神経システムを開発するための成功したアプローチの 1 つは、\textit{ハイブリッド} 神経象徴技術です。
ただし、これらの手法は、AI へのシンボリック アプローチを悩ませる中心的な問題、つまりスケーラビリティと柔軟性に遭遇します。
この失敗の理由は、ハイブリッド神経記号モデルがその中核において記号計算を実行し、スケーラブルで柔軟な神経計算を記号システムのパラメーター化に任せているためです。
私たちは、ネットワーク内の変換を記号計算と神経計算の両方として同時に解釈できる \textit{unified} 神経記号システムを研究します。
私たちは、Differentiable Tree Machine と呼ばれる統合神経象徴アーキテクチャを 2 つの中心的な方法で拡張します。
まず、シンボリック構造のスパース ベクトル表現を使用することで、モデルの効率を大幅に向上させます。
第 2 に、tree2tree 問題の制限されたセットを超えて、より一般的なクラスの seq2seq 問題への応用を可能にします。
改良されたモデルは以前の一般化機能を保持しており、ネットワークを通る完全なニューラル パスがあるため、ニューラル計算よりもシンボリック計算を高度化する他のニューロシンボリック手法の落とし穴を回避します。
要約(オリジナル)
Neural networks continue to struggle with compositional generalization, and this issue is exacerbated by a lack of massive pre-training. One successful approach for developing neural systems which exhibit human-like compositional generalization is \textit{hybrid} neurosymbolic techniques. However, these techniques run into the core issues that plague symbolic approaches to AI: scalability and flexibility. The reason for this failure is that at their core, hybrid neurosymbolic models perform symbolic computation and relegate the scalable and flexible neural computation to parameterizing a symbolic system. We investigate a \textit{unified} neurosymbolic system where transformations in the network can be interpreted simultaneously as both symbolic and neural computation. We extend a unified neurosymbolic architecture called the Differentiable Tree Machine in two central ways. First, we significantly increase the model’s efficiency through the use of sparse vector representations of symbolic structures. Second, we enable its application beyond the restricted set of tree2tree problems to the more general class of seq2seq problems. The improved model retains its prior generalization capabilities and, since there is a fully neural path through the network, avoids the pitfalls of other neurosymbolic techniques that elevate symbolic computation over neural computation.
arxiv情報
著者 | Paul Soulos,Henry Conklin,Mattia Opper,Paul Smolensky,Jianfeng Gao,Roland Fernandez |
発行日 | 2024-12-18 17:20:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google