-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
投稿者「jarxiv」のアーカイブ
Semantically Encoding Activity Labels for Context-Aware Human Activity Recognition
要約 以前の作業は、主にマルチラベル分類問題としてCa-HARを定式化しています … 続きを読む
カテゴリー: cs.LG
Semantically Encoding Activity Labels for Context-Aware Human Activity Recognition はコメントを受け付けていません
Trading Graph Neural Network
要約 このペーパーでは、新しいアルゴリズム – トレーディングネット … 続きを読む
C3PO: Critical-Layer, Core-Expert, Collaborative Pathway Optimization for Test-Time Expert Re-Mixing
要約 混合混合物(MOE)大手言語モデル(LLMS)は厳しい最適な専門家の経路に … 続きを読む
カテゴリー: cs.LG
C3PO: Critical-Layer, Core-Expert, Collaborative Pathway Optimization for Test-Time Expert Re-Mixing はコメントを受け付けていません
Large corpora and large language models: a replicable method for automating grammatical annotation
要約 多くの言語研究は、テキストコーパスから抽出された特徴の注釈付きデータセット … 続きを読む
カテゴリー: cs.CL
Large corpora and large language models: a replicable method for automating grammatical annotation はコメントを受け付けていません
MedCT: A Clinical Terminology Graph for Generative AI Applications in Healthcare
要約 中国の医療コミュニティ、すなわちMEDCTのために世界初の臨床用語を紹介し … 続きを読む
Wanting to be Understood
要約 この論文では、相互の認識のための本質的な動機を探り、人間は外因性の報酬がな … 続きを読む
Supervised Optimism Correction: Be Confident When LLMs Are Sure
要約 この作業では、トークンレベルのマルコフ決定プロセスの下で、監視された微調整 … 続きを読む
カテゴリー: cs.CL
Supervised Optimism Correction: Be Confident When LLMs Are Sure はコメントを受け付けていません
AI-Slop to AI-Polish? Aligning Language Models through Edit-Based Writing Rewards and Test-time Computation
要約 AIが生成したテキストは、創造的な執筆やジャーナリズムからマーケティングの … 続きを読む
How to Make LLMs Forget: On Reversing In-Context Knowledge Edits
要約 コンテキスト内の知識編集(IKE)により、パラメーターの変更なしおよびゼロ … 続きを読む
カテゴリー: cs.CL
How to Make LLMs Forget: On Reversing In-Context Knowledge Edits はコメントを受け付けていません
Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering
要約 機械翻訳評価の着実な進歩にもかかわらず、既存の自動メトリックは、文の境界を … 続きを読む