-
最近の投稿
- Grasp EveryThing (GET): 1-DoF, 3-Fingered Gripper with Tactile Sensing for Robust Grasping
- Neural Inertial Odometry from Lie Events
- Physical synchronization of soft self-oscillating limbs for fast and autonomous locomotion
- CRADMap: Applied Distributed Volumetric Mapping with 5G-Connected Multi-Robots and 4D Radar Perception
- Learning Rock Pushability on Rough Planetary Terrain
-
最近のコメント
表示できるコメントはありません。 cs.AI (38176) cs.CL (28850) cs.CV (43741) cs.HC (2915) cs.LG (43106) cs.RO (22722) cs.SY (3490) eess.IV (5071) eess.SY (3482) stat.ML (5612)
「I.2.10」カテゴリーアーカイブ
CODEI: Resource-Efficient Task-Driven Co-Design of Perception and Decision Making for Mobile Robots Applied to Autonomous Vehicles
要約 このペーパーでは、安全性、効率、コスト、エネルギー、計算要件、重量などのリ … 続きを読む
BUFF: Bayesian Uncertainty Guided Diffusion Probabilistic Model for Single Image Super-Resolution
要約 超解像(SR)技術は、特に高解像度画像が不可欠でありながらハードウェアの制 … 続きを読む
CoMatcher: Multi-View Collaborative Feature Matching
要約 このペーパーでは、複雑なシナリオでの信頼できるトラック構造のためのマルチビ … 続きを読む
Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models
要約 自律運転における共変量シフト問題に対処するために、潜在空間生成世界モデルの … 続きを読む
Harmony: A Joint Self-Supervised and Weakly-Supervised Framework for Learning General Purpose Visual Representations
要約 クリップなどのビジョン言語対照学習フレームワークは、自然言語の監督から学習 … 続きを読む
GroundCap: A Visually Grounded Image Captioning Dataset
要約 現在の画像キャプションシステムには、説明テキストを特定の視覚要素にリンクす … 続きを読む
Conjuring Positive Pairs for Efficient Unification of Representation Learning and Image Synthesis
要約 表現学習と生成モデリングは視覚データを理解しようとしていますが、両方のドメ … 続きを読む
CODEI: Resource-Efficient Task-Driven Co-Design of Perception and Decision Making for Mobile Robots Applied to Autonomous Vehicles
要約 このペーパーでは、安全性、効率、コスト、エネルギー、計算要件、重量などのリ … 続きを読む
ForAug: Recombining Foregrounds and Backgrounds to Improve Vision Transformer Training with Bias Mitigation
要約 トランス、特にビジョントランス(VITS)は、大規模な画像分類で最先端のパ … 続きを読む
VisRL: Intention-Driven Visual Perception via Reinforced Reasoning
要約 視覚的理解は本質的に意図駆動型です – 人間は目標に基づいてシ … 続きを読む