Visual Place Cell Encoding: A Computational Model for Spatial Representation and Cognitive Mapping

要約

このホワイトペーパーでは、視覚入力を使用して場所セルのような活性化をシミュレートするための生物学的にインスパイアされた計算フレームワークである視覚的な場所セルエンコード(VPCE)モデルを紹介します。
視覚的ランドマークが空間エンコーディングにおいて中心的な役割を果たすという証拠に基づいて、提案されたVPCEモデルは、ロボットに取り付けられたカメラでキャプチャされた画像から抽出された高次元外観の特徴をクラスタリングすることにより、視覚的な場所セルをアクティブにします。
各クラスターセンターは受容フィールドを定義し、放射状基底関数を使用して視覚的類似性に基づいて活性化が計算されます。
結果の活性化パターンが、空間的近接性、方向アライメント、境界分化を含む生物学的位置細胞の重要な特性と相関するかどうかを評価します。
実験は、VPCEが視覚的に類似しているが空間的に異なる場所を区別し、壁の挿入や除去などの環境の変化に適応できることを示しています。
これらの結果は、構造化された視覚入力は、モーションキューや報酬駆動型学習がない場合でも、場所セルのような空間表現を生成し、生物学的にインスパイアされた認知マッピングをサポートするのに十分であることを示唆しています。

要約(オリジナル)

This paper presents the Visual Place Cell Encoding (VPCE) model, a biologically inspired computational framework for simulating place cell-like activation using visual input. Drawing on evidence that visual landmarks play a central role in spatial encoding, the proposed VPCE model activates visual place cells by clustering high-dimensional appearance features extracted from images captured by a robot-mounted camera. Each cluster center defines a receptive field, and activation is computed based on visual similarity using a radial basis function. We evaluate whether the resulting activation patterns correlate with key properties of biological place cells, including spatial proximity, orientation alignment, and boundary differentiation. Experiments demonstrate that the VPCE can distinguish between visually similar yet spatially distinct locations and adapt to environment changes such as the insertion or removal of walls. These results suggest that structured visual input, even in the absence of motion cues or reward-driven learning, is sufficient to generate place-cell-like spatial representations and support biologically inspired cognitive mapping.

arxiv情報

著者 Chance J. Hamilton,Alfredo Weitzenfeld
発行日 2025-04-22 14:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク