-
最近の投稿
- Human-Robot Dialogue Annotation for Multi-Modal Common Ground
- Anticipatory Planning for Performant Long-Lived Robot in Large-Scale Home-Like Environments
- SCOUT: A Situated and Multi-Modal Human-Robot Dialogue Corpus
- Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting
- ForestAlign: Automatic Forest Structure-based Alignment for Multi-view TLS and ALS Point Clouds
-
最近のコメント
表示できるコメントはありません。 cs.AI (29925) cs.CL (22599) cs.CR (2321) cs.CV (36300) cs.LG (34746) cs.RO (17366) cs.SY (2670) eess.IV (4416) eess.SY (2664) stat.ML (4635)
「H.1.2」カテゴリーアーカイブ
emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography
要約 表面筋電図 (sEMG) は、筋肉の活動によって生成される信号を、個々の脊 … 続きを読む
Fostering Trust and Quantifying Value of AI and ML
要約 人工知能 (AI) および機械学習 (ML) プロバイダーには、有効で信頼 … 続きを読む
Can Large Language Models (or Humans) Disentangle Text?
要約 このタスクは、テキスト蒸留として知られ、AIや因果推論の文献における公正さ … 続きを読む
Shifting Focus with HCEye: Exploring the Dynamics of Visual Highlighting and Cognitive Load on User Attention and Saliency Prediction
要約 視覚的な強調表示により、複雑なインターフェイスでユーザーの注意を引くことが … 続きを読む
Shifting Focus with HCEye: Exploring the Dynamics of Visual Highlighting and Cognitive Load on User Attention and Saliency Prediction
要約 視覚的な強調表示により、複雑なインターフェイスでユーザーの注意を引くことが … 続きを読む
Shifting Focus with HCEye: Exploring the Dynamics of Visual Highlighting and Cognitive Load on User Attention and Saliency Prediction
要約 視覚的な強調表示により、複雑なインターフェイスでユーザーの注意を誘導できま … 続きを読む