Permutation-Invariant Set Autoencoders with Fixed-Size Embeddings for Multi-Agent Learning

要約

セット表現に対する順列不変学習の問題は、特にマルチエージェント システムの分野に関連しています。いくつかの潜在的なアプリケーションには、グラフ ニューラル ネットワーク (GNN) での集約関数の教師なしトレーニング、グラフでのニューラル セル オートマトン、および次の予測が含まれます。
複数のオブジェクトがあるシーン。
しかし、エンコーディングおよびデコーディング タスクを設定する既存のアプローチには、非順列不変性、固定長出力、反復法への依存、非決定論的出力、計算コストの高い損失関数、貧弱な再構成精度など、多くの問題があります。
このホワイトペーパーでは、これらの問題に取り組み、既存のベースラインよりも大幅に低い再構成エラーでエンコードを生成する Permutation-Invariant Set Autoencoder (PISA) を紹介します。
PISA は、類似性を保持する潜在空間や、エンコーディングから要素を挿入または削除する機能など、他の望ましいプロパティも提供します。
ベースライン メソッドに対して PISA を評価した後、マルチエージェント アプリケーションでの有用性を示します。
サブコンポーネントとして PISA を使用して、一般化された通信スキームとして機能する新しい GNN アーキテクチャを導入し、エージェントが通信を使用してシステムの完全な可観測性を取得できるようにします。

要約(オリジナル)

The problem of permutation-invariant learning over set representations is particularly relevant in the field of multi-agent systems — a few potential applications include unsupervised training of aggregation functions in graph neural networks (GNNs), neural cellular automata on graphs, and prediction of scenes with multiple objects. Yet existing approaches to set encoding and decoding tasks present a host of issues, including non-permutation-invariance, fixed-length outputs, reliance on iterative methods, non-deterministic outputs, computationally expensive loss functions, and poor reconstruction accuracy. In this paper we introduce a Permutation-Invariant Set Autoencoder (PISA), which tackles these problems and produces encodings with significantly lower reconstruction error than existing baselines. PISA also provides other desirable properties, including a similarity-preserving latent space, and the ability to insert or remove elements from the encoding. After evaluating PISA against baseline methods, we demonstrate its usefulness in a multi-agent application. Using PISA as a subcomponent, we introduce a novel GNN architecture which serves as a generalised communication scheme, allowing agents to use communication to gain full observability of a system.

arxiv情報

著者 Ryan Kortvelesy,Steven Morad,Amanda Prorok
発行日 2023-02-24 18:59:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.MA パーマリンク