cs.AI」カテゴリーアーカイブ

A Generative Approach to High Fidelity 3D Reconstruction from Text Data

要約 生成的人工知能と高度なコンピュータービジョンテクノロジーの収束は、テキスト … 続きを読む

カテゴリー: cs.AI, cs.CV | A Generative Approach to High Fidelity 3D Reconstruction from Text Data はコメントを受け付けていません

Beyond Matryoshka: Revisiting Sparse Coding for Adaptive Representation

要約 多くの大規模システムは、検索、検索、生成モデリングなどのタスクを容易にする … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.IR, cs.LG | Beyond Matryoshka: Revisiting Sparse Coding for Adaptive Representation はコメントを受け付けていません

Rethinking Video Tokenization: A Conditioned Diffusion-based Approach

要約 ビデオをコンパクトな潜在表現に変換するビデオトークナーは、ビデオ生成の鍵で … 続きを読む

カテゴリー: cs.AI, cs.CV | Rethinking Video Tokenization: A Conditioned Diffusion-based Approach はコメントを受け付けていません

Rethinking Deep Clustering Paradigms: Self-Supervision Is All You Need

要約 深いクラスタリングの最近の進歩は、自己教師と疑似監督の学習の大幅な進歩によ … 続きを読む

カテゴリー: cs.AI, cs.CV | Rethinking Deep Clustering Paradigms: Self-Supervision Is All You Need はコメントを受け付けていません

Rewarding Doubt: A Reinforcement Learning Approach to Confidence Calibration of Large Language Models

要約 大規模な言語モデル(LLMS)の安全で信頼できる使用には、回答に対する信頼 … 続きを読む

カテゴリー: cs.AI, cs.CL | Rewarding Doubt: A Reinforcement Learning Approach to Confidence Calibration of Large Language Models はコメントを受け付けていません

ROCKET-2: Steering Visuomotor Policy via Cross-View Goal Alignment

要約 私たちは、人間のユーザーが具体化された環境でエージェントの相互作用を導くた … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | ROCKET-2: Steering Visuomotor Policy via Cross-View Goal Alignment はコメントを受け付けていません

World Models for Anomaly Detection during Model-Based Reinforcement Learning Inference

要約 学習ベースのコントローラーは、多くの場合、安全性と信頼性に関する懸念のため … 続きを読む

カテゴリー: cs.AI, cs.RO | World Models for Anomaly Detection during Model-Based Reinforcement Learning Inference はコメントを受け付けていません

RaceVLA: VLA-based Racing Drone Navigation with Human-like Behaviour

要約 Racevlaは、視覚言語アクション(VLA)を活用して人間のような行動を … 続きを読む

カテゴリー: cs.AI, cs.RO | RaceVLA: VLA-based Racing Drone Navigation with Human-like Behaviour はコメントを受け付けていません

Rewarding Doubt: A Reinforcement Learning Approach to Confidence Calibration of Large Language Models

要約 大規模な言語モデル(LLMS)の安全で信頼できる使用には、回答に対する信頼 … 続きを読む

カテゴリー: cs.AI, cs.CL | Rewarding Doubt: A Reinforcement Learning Approach to Confidence Calibration of Large Language Models はコメントを受け付けていません

PAD: Personalized Alignment of LLMs at Decoding-Time

要約 文化的、教育的、政治的な違いによって大きく異なるパーソナライズされた好みに … 続きを読む

カテゴリー: cs.AI, cs.CL | PAD: Personalized Alignment of LLMs at Decoding-Time はコメントを受け付けていません