要約
Transformer モデルは、当初は自然言語処理の分野で大きな成功を収めましたが、最近では触覚の応用において大きな可能性を示しています。
このレビューは、触覚技術におけるトランスフォーマーの応用と開発について包括的に概説することを目的としています。
まず、Transformer の成功の背後にある 2 つの基本的な概念、つまり自己注意メカニズムと大規模な事前トレーニングを紹介します。
次に、オブジェクト認識、クロスモーダル生成、オブジェクト操作などを含む (ただしこれらに限定されない) さまざまな触覚タスクにおける Transformer のアプリケーションを詳しく掘り下げ、中心となる方法論、パフォーマンス ベンチマーク、設計のハイライトを簡潔にまとめます。
最後に、コミュニティ内でより多くの関心を集め、既存の課題に取り組み、触覚分野での Transformer モデルの使用を促進することを目的として、さらなる研究と将来の作業の可能性のある領域を提案します。
要約(オリジナル)
The Transformer model, initially achieving significant success in the field of natural language processing, has recently shown great potential in the application of tactile perception. This review aims to comprehensively outline the application and development of Transformers in tactile technology. We first introduce the two fundamental concepts behind the success of the Transformer: the self-attention mechanism and large-scale pre-training. Then, we delve into the application of Transformers in various tactile tasks, including but not limited to object recognition, cross-modal generation, and object manipulation, offering a concise summary of the core methodologies, performance benchmarks, and design highlights. Finally, we suggest potential areas for further research and future work, aiming to generate more interest within the community, tackle existing challenges, and encourage the use of Transformer models in the tactile field.
arxiv情報
著者 | Jing Gao,Ning Cheng,Bin Fang,Wenjuan Han |
発行日 | 2024-05-21 13:26:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google