要約
スパイキング ニューラル ネットワーク (SNN) には、スパイキング シーケンスにより時空間特徴を抽出する機能があります。
これまでの研究は主に画像の分類と強化学習に焦点を当ててきました。
私たちの論文では、スパイキングトランスニューラルネットワークとノイズ除去拡散確率モデル(DDPM)に基づいた新しい拡散政策モデル、つまりロボットの動作軌道を生成するための新しい脳にヒントを得たモデルであるスパイキングトランス変調拡散政策モデル(STMDP)を提案しました。
このモデルのパフォーマンスを向上させるために、トランスフォーマー アーキテクチャ内の従来のデコーダー モジュールを置き換える新しいデコーダー モジュールであるスパイキング モジュレート デコーダー (SMD) を開発しました。
さらに、フレームワークで DDPM をノイズ除去拡散暗黙モデル (DDIM) に置き換えることも検討しました。
私たちは 4 つのロボット操作タスクにわたる実験を実施し、モジュレート ブロックのアブレーション研究を実施しました。
私たちのモデルは、既存の Transformer ベースの拡散政策手法を常に上回っています。
特にCanタスクでは8%の改善を達成しました。
提案された STMDP 手法は、SNN、dffusion モデル、および Transformer アーキテクチャを統合しており、脳にヒントを得たロボット工学の探索に新しい視点と有望な方向性を提供します。
要約(オリジナル)
Spiking Neural Networks (SNNs) has the ability to extract spatio-temporal features due to their spiking sequence. While previous research has primarily foucus on the classification of image and reinforcement learning. In our paper, we put forward novel diffusion policy model based on Spiking Transformer Neural Networks and Denoising Diffusion Probabilistic Model (DDPM): Spiking Transformer Modulate Diffusion Policy Model (STMDP), a new brain-inspired model for generating robot action trajectories. In order to improve the performance of this model, we develop a novel decoder module: Spiking Modulate De coder (SMD), which replaces the traditional Decoder module within the Transformer architecture. Additionally, we explored the substitution of DDPM with Denoising Diffusion Implicit Models (DDIM) in our frame work. We conducted experiments across four robotic manipulation tasks and performed ablation studies on the modulate block. Our model consistently outperforms existing Transformer-based diffusion policy method. Especially in Can task, we achieved an improvement of 8%. The proposed STMDP method integrates SNNs, dffusion model and Transformer architecture, which offers new perspectives and promising directions for exploration in brain-inspired robotics.
arxiv情報
著者 | Qianhao Wang,Yinqian Sun,Enmeng Lu,Qian Zhang,Yi Zeng |
発行日 | 2024-11-15 05:11:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google