要約
Transformer は、身体化学習における多様なロボット データセットに対して一般化された低レベルのロボット ポリシーを取得するために、時変特徴をモデル化する強化学習において有望であることを示しています。
ただし、依然としてデータ効率が低く、推論遅延が長いという問題があります。
この論文では、周波数領域の新しい観点からこのタスクを調査することを提案します。
まず、ロボットの軌道の周波数領域のエネルギー密度が主に低周波数部分に集中していることが観察されます。
次に、短時間フーリエ変換 (STFT) を使用して、周波数領域補間を通じて時変特徴を抽出およびエンコードする新しいネットワークであるフーリエ コントローラー ネットワーク (FCNet) を紹介します。
リアルタイムの意思決定を行うために、モデル アーキテクチャに FFT およびスライディング DFT 手法をさらに採用し、並列トレーニングと効率的な再帰推論を実現します。
シミュレーション環境 (例: D4RL) と現実世界の環境 (例: ロボットの移動) の両方における広範な結果は、Transformer などの既存の手法を上回る FCNet の実質的な効率と有効性を実証しています。たとえば、FCNet は、あらゆる種類のサイズのマルチ環境ロボット データセットで Transformer を上回っています。
(1.9Mから120Mまで)。
プロジェクト ページとコードは https://thkkk.github.io/fcnet にあります。
要約(オリジナル)
Transformer has shown promise in reinforcement learning to model time-varying features for obtaining generalized low-level robot policies on diverse robotics datasets in embodied learning. However, it still suffers from the issues of low data efficiency and high inference latency. In this paper, we propose to investigate the task from a new perspective of the frequency domain. We first observe that the energy density in the frequency domain of a robot’s trajectory is mainly concentrated in the low-frequency part. Then, we present the Fourier Controller Network (FCNet), a new network that uses Short-Time Fourier Transform (STFT) to extract and encode time-varying features through frequency domain interpolation. In order to do real-time decision-making, we further adopt FFT and Sliding DFT methods in the model architecture to achieve parallel training and efficient recurrent inference. Extensive results in both simulated (e.g., D4RL) and real-world environments (e.g., robot locomotion) demonstrate FCNet’s substantial efficiency and effectiveness over existing methods such as Transformer, e.g., FCNet outperforms Transformer on multi-environmental robotics datasets of all types of sizes (from 1.9M to 120M). The project page and code can be found https://thkkk.github.io/fcnet.
arxiv情報
| 著者 | Hengkai Tan,Songming Liu,Kai Ma,Chengyang Ying,Xingxing Zhang,Hang Su,Jun Zhu |
| 発行日 | 2024-06-05 09:03:03+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google