-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
Adversarial Vulnerabilities in Large Language Models for Time Series Forecasting
要約 大規模な言語モデル(LLM)は最近、時系列予測の分野で重要な可能性を実証し … 続きを読む
COS(M+O)S: Curiosity and RL-Enhanced MCTS for Exploring Story Space via Language Models
要約 COS(M+O)Sは、可能なストーリー拡張の広大な空間を体系的に調査するオ … 続きを読む
Histoires Morales: A French Dataset for Assessing Moral Alignment
要約 言語モデルを人間の価値観で調整することは、特に日常生活により統合されるよう … 続きを読む
FactCG: Enhancing Fact Checkers with Graph-Based Multi-Hop Data
要約 大規模な言語モデル(LLM)の幻覚を検出するための根拠のある事実性分類モデ … 続きを読む
AxBench: Steering LLMs? Even Simple Baselines Outperform Sparse Autoencoders
要約 言語モデルの出力の細かいステアリングは、安全性と信頼性に不可欠です。 これ … 続きを読む
Exploring the Role of Explicit Temporal Modeling in Multimodal Large Language Models for Video Understanding
要約 マルチモーダル大手言語モデル(MLLM)をビデオ理解に適用することは、フレ … 続きを読む
Mobile-Agent-E: Self-Evolving Mobile Assistant for Complex Tasks
要約 スマートフォンは現代生活で不可欠になっていますが、モバイルデバイスでの複雑 … 続きを読む
DBRouting: Routing End User Queries to Databases for Answerability
要約 多くの場合、エンタープライズレベルのデータは複数のソースに分配され、知識リ … 続きを読む
カテゴリー: cs.CL
DBRouting: Routing End User Queries to Databases for Answerability はコメントを受け付けていません
DynaGRAG | Exploring the Topology of Information for Advancing Language Understanding and Generation in Graph Retrieval-Augmented Generation
要約 グラフの検索された生成(グラグまたはグラフぼろきれ)アーキテクチャは、外部 … 続きを読む
Towards Cross-Tokenizer Distillation: the Universal Logit Distillation Loss for LLMs
要約 コスト、待ち時間の制限、ハードウェアのアクセシビリティなどの制約により、ほ … 続きを読む
カテゴリー: cs.CL
Towards Cross-Tokenizer Distillation: the Universal Logit Distillation Loss for LLMs はコメントを受け付けていません