-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CV」カテゴリーアーカイブ
A Benchmark and Evaluation for Real-World Out-of-Distribution Detection Using Vision-Language Models
要約 分布外(OOD)検出は、推論中にOODサンプルを検出し、展開されたモデルの … 続きを読む
カテゴリー: cs.CV
A Benchmark and Evaluation for Real-World Out-of-Distribution Detection Using Vision-Language Models はコメントを受け付けていません
ViewpointDepth: A New Dataset for Monocular Depth Estimation Under Viewpoint Shifts
要約 単眼での奥行き推定は、自律走行や他の多くのコンピュータビジョンアプリケーシ … 続きを読む
カテゴリー: cs.CV
ViewpointDepth: A New Dataset for Monocular Depth Estimation Under Viewpoint Shifts はコメントを受け付けていません
The Master Key Filters Hypothesis: Deep Filters Are General
要約 本論文では、畳み込みニューラルネットワーク(CNN)フィルターは、より深い … 続きを読む
Advances in Multimodal Adaptation and Generalization: From Traditional Approaches to Foundation Models
要約 実世界のシナリオにおいて、領域適応と汎化を達成することは、モデルが未知のタ … 続きを読む
Cautious Optimizers: Improving Training with One Line of Code
要約 ADAMWは、変圧器の事前化のデフォルトのオプティマイザーです。 長年にわ … 続きを読む
Imitation Game for Adversarial Disillusion with Multimodal Generative Chain-of-Thought Role-Play
要約 人工知能の礎石として、機械の知覚は敵対的な幻想によってもたらされる基本的な … 続きを読む
Improving Multi-Label Contrastive Learning by Leveraging Label Distribution
要約 マルチラベル学習では、より良い表現を学習するための対照的な学習を活用するこ … 続きを読む
SWAT: Sliding Window Adversarial Training for Gradual Domain Adaptation
要約 ドメインシフトは、機械学習のパフォーマンスに害を及ぼす重要な問題です。 監 … 続きを読む
GDO: Gradual Domain Osmosis
要約 このホワイトペーパーでは、段階的なドメイン適応(GDA)におけるソースドメ … 続きを読む
カテゴリー: cs.CV
GDO: Gradual Domain Osmosis はコメントを受け付けていません
HarmoniCa: Harmonizing Training and Inference for Better Feature Caching in Diffusion Transformer Acceleration
要約 拡散変圧器(DIT)は生成タスクに優れていますが、推論コストが高いため、実 … 続きを読む
カテゴリー: cs.CV
HarmoniCa: Harmonizing Training and Inference for Better Feature Caching in Diffusion Transformer Acceleration はコメントを受け付けていません