The role of object-centric representations, guided attention, and external memory on generalizing visual relations

要約

【タイトル】視覚的な関係を一般的に汎化するための物体中心表現、ガイド付き注意、外部メモリの役割

【要約】
– 視覚推論は、長期的な視覚研究の目標です。
– 過去10年間、深層ニューラルネットワーク(DNN)を使って画像から視覚的関係を学習する試みがいくつかありましたが、学習された関係の汎化性にはさまざまな制限があった。
– 近年、抽象的な視覚的関係の学習を可能にするためのいくつかのDNNイノベーションが開発されてきている。
– 本研究では、2つのオブジェクトが同じか異なるかを判断する最も単純な視覚的推論タスクにおいて、スロットアテンション、再帰的にガイドされた注意、外部メモリなどのメカニズムを統合した一連のDNNを系統的に評価した。
– 一部のモデルは特定のタイプの画像に対して同じ異なる関係を汎化することができたが、どのモデルも全体にわたってこの関係を汎化することはできなかった。
– 抽象的な視覚推論は依然としてDNNにとって未解決の課題であると結論付けた。

要約(オリジナル)

Visual reasoning is a long-term goal of vision research. In the last decade, several works have attempted to apply deep neural networks (DNNs) to the task of learning visual relations from images, with modest results in terms of the generalization of the relations learned. In recent years, several innovations in DNNs have been developed in order to enable learning abstract relation from images. In this work, we systematically evaluate a series of DNNs that integrate mechanism such as slot attention, recurrently guided attention, and external memory, in the simplest possible visual reasoning task: deciding whether two objects are the same or different. We found that, although some models performed better than others in generalizing the same-different relation to specific types of images, no model was able to generalize this relation across the board. We conclude that abstract visual reasoning remains largely an unresolved challenge for DNNs.

arxiv情報

著者 Guillermo Puebla,Jeffrey S. Bowers
発行日 2023-04-14 12:22:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク