cs.PF」カテゴリーアーカイブ

A Methodology to Evaluate Strategies Predicting Rankings on Unseen Domains

要約 多くの場合、複数のエンティティ(メソッド、アルゴリズム、手順、ソリューショ … 続きを読む

カテゴリー: cs.CV, cs.PF | コメントする

msf-CNN: Patch-based Multi-Stage Fusion with Convolutional Neural Networks for TinyML

要約 AIは、大規模な言語モデルからマイクロコントローラー(MCU)で実行されて … 続きを読む

カテゴリー: cs.LG, cs.PF | コメントする

Improving Assembly Code Performance with Large Language Models via Reinforcement Learning

要約 大規模な言語モデル(LLMS)は、幅広いプログラミングタスクで強力なパフォ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.PF, cs.PL, cs.SE | コメントする

Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles

要約 自動運転車(AV)は、水中追跡などの科学ミッションに費用対効果の高いソリュ … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.PF, cs.RO | Scaling Multi Agent Reinforcement Learning for Underwater Acoustic Tracking via Autonomous Vehicles はコメントを受け付けていません

Assessing Tenstorrent’s RISC-V MatMul Acceleration Capabilities

要約 大規模な言語モデル(LLMS)サービスとしての生成AIの需要の増加により、 … 続きを読む

カテゴリー: cs.AI, cs.AR, cs.PF | Assessing Tenstorrent’s RISC-V MatMul Acceleration Capabilities はコメントを受け付けていません

CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing

要約 大規模言語モデルは、様々なタスクにおいて目覚ましい成功を収めているが、推論 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | CITER: Collaborative Inference for Efficient Large Language Model Decoding with Token-Level Routing はコメントを受け付けていません

QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving

要約 量子化は、大規模な言語モデル(LLM)推論を加速できます。 INT8の量子 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PF | QServe: W4A8KV4 Quantization and System Co-design for Efficient LLM Serving はコメントを受け付けていません

NSFlow: An End-to-End FPGA Framework with Scalable Dataflow Architecture for Neuro-Symbolic AI

要約 Neuro-Symbolic AI(NSAI)は、AIシステムの透明性、推 … 続きを読む

カテゴリー: cs.AI, cs.AR, cs.LG, cs.PF | NSFlow: An End-to-End FPGA Framework with Scalable Dataflow Architecture for Neuro-Symbolic AI はコメントを受け付けていません

LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention

要約 大規模な言語モデル(LLM)は、長いシーケンスと複雑な推論タスクの処理にお … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.LG, cs.PF | LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention はコメントを受け付けていません

Zero-Shot, But at What Cost? Unveiling the Hidden Overhead of MILS’s LLM-CLIP Framework for Image Captioning

要約 MILS(Multimodal Iterative LLM Solver) … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG, cs.PF | Zero-Shot, But at What Cost? Unveiling the Hidden Overhead of MILS’s LLM-CLIP Framework for Image Captioning はコメントを受け付けていません