投稿者「jarxiv」のアーカイブ

VideoEval-Pro: Robust and Realistic Long Video Understanding Evaluation

要約 大規模なマルチモーダルモデル(LMM)は最近、長いビデオ理解(LVU)の強 … 続きを読む

カテゴリー: cs.CV | VideoEval-Pro: Robust and Realistic Long Video Understanding Evaluation はコメントを受け付けていません

CAD-Coder: An Open-Source Vision-Language Model for Computer-Aided Design Code Generation

要約 正確で編集可能な3D CADモデルの効率的な作成は、エンジニアリング設計に … 続きを読む

カテゴリー: cs.AI, cs.CV | CAD-Coder: An Open-Source Vision-Language Model for Computer-Aided Design Code Generation はコメントを受け付けていません

Beyond Words: Multimodal LLM Knows When to Speak

要約 大規模な言語モデル(LLM)ベースのチャットボットは、コヒーレントでコンテ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | Beyond Words: Multimodal LLM Knows When to Speak はコメントを受け付けていません

EmoGist: Efficient In-Context Learning for Visual Emotion Understanding

要約 この論文では、LVLMSを使用して視覚的な感情分類を実行するためのトレーニ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | EmoGist: Efficient In-Context Learning for Visual Emotion Understanding はコメントを受け付けていません

AKRMap: Adaptive Kernel Regression for Trustworthy Visualization of Cross-Modal Embeddings

要約 クロスモーダル埋め込みは、マルチモーダルモデルの基礎を形成します。 ただし … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG | AKRMap: Adaptive Kernel Regression for Trustworthy Visualization of Cross-Modal Embeddings はコメントを受け付けていません

UniCTokens: Boosting Personalized Understanding and Generation via Unified Concept Tokens

要約 パーソナライズされたモデルは、ユーザーが提供する概念を理解し、生成する際に … 続きを読む

カテゴリー: cs.CV | UniCTokens: Boosting Personalized Understanding and Generation via Unified Concept Tokens はコメントを受け付けていません

Training-Free Watermarking for Autoregressive Image Generation

要約 目に見えない画像の透かしは、画像の所有権を保護し、視覚生成モデルの悪意のあ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | Training-Free Watermarking for Autoregressive Image Generation はコメントを受け付けていません

Visionary-R1: Mitigating Shortcuts in Visual Reasoning with Reinforcement Learning

要約 一般的な推論能力を学習することは、AIで長い間挑戦的な問題でした。 Dee … 続きを読む

カテゴリー: cs.CV | Visionary-R1: Mitigating Shortcuts in Visual Reasoning with Reinforcement Learning はコメントを受け付けていません

Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training

要約 大規模な推論モデル(LRM)内の専門家の混合(MOE)アーキテクチャは、専 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.IR, cs.LG | Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training はコメントを受け付けていません

UniGen: Enhanced Training & Test-Time Strategies for Unified Multimodal Understanding and Generation

要約 画像の理解と生成が可能な統一されたマルチモーダル大手言語モデル(MLLM) … 続きを読む

カテゴリー: cs.CV | UniGen: Enhanced Training & Test-Time Strategies for Unified Multimodal Understanding and Generation はコメントを受け付けていません