-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2025年3月
Learning to Localize Leakage of Cryptographic Sensitive Variables
要約 ユビキタス高度な暗号化標準(AES)などの暗号化アルゴリズムは、ハードウェ … 続きを読む
Sample Complexity of Nonparametric Closeness Testing for Continuous Distributions and Its Application to Causal Discovery with Hidden Confounding
要約 継続的な分布のための親密性テストの問題と、因果発見への影響を研究します。 … 続きを読む
Multimodal Human-AI Synergy for Medical Imaging Quality Control: A Hybrid Intelligence Framework with Adaptive Dataset Curation and Closed-Loop Evaluation
要約 医療イメージング品質管理(QC)は正確な診断に不可欠ですが、従来のQC方法 … 続きを読む
Bot Wars Evolved: Orchestrating Competing LLMs in a Counterstrike Against Phone Scams
要約 シミュレートされた敵対的な対話を通じて電話詐欺に対抗するために、大規模な言 … 続きを読む
TCM-3CEval: A Triaxial Benchmark for Assessing Responses from Large Language Models in Traditional Chinese Medicine
要約 大規模な言語モデル(LLM)は、さまざまなNLPタスクや現代医学に優れてい … 続きを読む
カテゴリー: cs.CL
TCM-3CEval: A Triaxial Benchmark for Assessing Responses from Large Language Models in Traditional Chinese Medicine はコメントを受け付けていません
DatawiseAgent: A Notebook-Centric LLM Agent Framework for Automated Data Science
要約 データサイエンスのタスクは、多面的で動的で、しばしばドメイン固有です。 既 … 続きを読む
Memorization in Attention-only Transformers
要約 最近の研究では、マルチヘッドの注意の記憶能力が調査されていますが、これらの … 続きを読む
Discrete Diffusion Language Model for Efficient Text Summarization
要約 拡散モデルは高品質の画像を生成する条件付きで優れていますが、離散拡散モデル … 続きを読む
CoIR: A Comprehensive Benchmark for Code Information Retrieval Models
要約 さまざまなNLPタスクでの情報検索(IR)の大幅な成功にもかかわらず、ほと … 続きを読む
DistiLLM-2: A Contrastive Approach Boosts the Distillation of LLMs
要約 大規模な言語モデル(LLMS)での蒸留の成功にもかかわらず、ほとんどの以前 … 続きを読む