月別アーカイブ: 2022年6月

Consistent Video Instance Segmentation with Inter-Frame Recurrent Attention

要約 ビデオインスタンスのセグメンテーションは、各フレームのオブジェクトセグメン … 続きを読む

カテゴリー: cs.CV | Consistent Video Instance Segmentation with Inter-Frame Recurrent Attention はコメントを受け付けていません

Turning a Curse Into a Blessing: Enabling Clean-Data-Free Defenses by Model Inversion

要約 サードパーティが提供する事前トレーニング済みモデルを利用することが、その利 … 続きを読む

カテゴリー: cs.CV | Turning a Curse Into a Blessing: Enabling Clean-Data-Free Defenses by Model Inversion はコメントを受け付けていません

Learning 3D Object Shape and Layout without 3D Supervision

要約 3Dシーンは、オブジェクトのセットで構成され、各オブジェクトには、空間内で … 続きを読む

カテゴリー: cs.CV | Learning 3D Object Shape and Layout without 3D Supervision はコメントを受け付けていません

EfficientFormer: Vision Transformers at MobileNet Speed

要約 ビジョントランスフォーマー(ViT)は、コンピュータービジョンタスクの急速 … 続きを読む

カテゴリー: cs.CV | EfficientFormer: Vision Transformers at MobileNet Speed はコメントを受け付けていません

Accurate 3D Body Shape Regression using Metric and Semantic Attributes

要約 画像から3D人間メッシュを回帰する方法は急速に進歩していますが、推定された … 続きを読む

カテゴリー: cs.CV | Accurate 3D Body Shape Regression using Metric and Semantic Attributes はコメントを受け付けていません

AnimeSR: Learning Real-World Super-Resolution Models for Animation Videos

要約 このホワイトペーパーでは、アニメーションビデオの実世界のビデオ超解像度(V … 続きを読む

カテゴリー: cs.AI, cs.CV | AnimeSR: Learning Real-World Super-Resolution Models for Animation Videos はコメントを受け付けていません

ReCo: Retrieve and Co-segment for Zero-shot Transfer

要約 セマンティックセグメンテーションには幅広いアプリケーションがありますが、実 … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG | ReCo: Retrieve and Co-segment for Zero-shot Transfer はコメントを受け付けていません

RGB-Multispectral Matching: Dataset, Learning Methodology, Evaluation

要約 ステレオマッチングの対応を解くことにより、非常に異なる解像度を特徴とする同 … 続きを読む

カテゴリー: cs.CV | RGB-Multispectral Matching: Dataset, Learning Methodology, Evaluation はコメントを受け付けていません

Efficient Human-in-the-loop System for Guiding DNNs Attention

要約 注意ガイダンスは、深層学習におけるデータセットのバイアスに対処するためのア … 続きを読む

カテゴリー: cs.CV, cs.HC, cs.LG | Efficient Human-in-the-loop System for Guiding DNNs Attention はコメントを受け付けていません

Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge Distillation

要約 知識蒸留(KD)は、学習表現を大きなモデル(教師)から小さなモデル(学生) … 続きを読む

カテゴリー: cs.CV | Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge Distillation はコメントを受け付けていません