-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
投稿者「jarxiv」のアーカイブ
Sufficient conditions for offline reactivation in recurrent neural networks
要約 睡眠などの静止期間中、多くの脳回路での神経活動は、タスクエンゲージメントの … 続きを読む
Understanding and Analyzing Inappropriately Targeting Language in Online Discourse: A Comparative Annotation Study
要約 このペーパーでは、群衆と専門家の注釈をChatGPTと統合することにより、 … 続きを読む
カテゴリー: cs.CL
Understanding and Analyzing Inappropriately Targeting Language in Online Discourse: A Comparative Annotation Study はコメントを受け付けていません
Nested Named Entity Recognition as Single-Pass Sequence Labeling
要約 私たちは、選挙区の構造を直線化する以前の作業を活用して、この構造化された予 … 続きを読む
Comparative analysis of subword tokenization approaches for Indian languages
要約 トークン化とは、マシンが処理しやすい小さな部品またはトークンにテキストを分 … 続きを読む
カテゴリー: cs.CL
Comparative analysis of subword tokenization approaches for Indian languages はコメントを受け付けていません
MPO: Multilingual Safety Alignment via Reward Gap Optimization
要約 大規模な言語モデル(LLM)は、世界中のAIアプリケーションの中心になりつ … 続きを読む
カテゴリー: cs.CL
MPO: Multilingual Safety Alignment via Reward Gap Optimization はコメントを受け付けていません
TTRL: Test-Time Reinforcement Learning
要約 このホワイトペーパーでは、大規模な言語モデル(LLM)のタスクを推論するた … 続きを読む
FoREST: Frame of Reference Evaluation in Spatial Reasoning Tasks
要約 空間的推論は、人間の知性の基本的な側面です。 空間認知の重要な概念の1つは … 続きを読む
カテゴリー: cs.CL
FoREST: Frame of Reference Evaluation in Spatial Reasoning Tasks はコメントを受け付けていません
Shadows in the Attention: Contextual Perturbation and Representation Drift in the Dynamics of Hallucination in LLMs
要約 幻覚 – もっともらしいが誤った出力 – は、大規 … 続きを読む
カテゴリー: cs.CL
Shadows in the Attention: Contextual Perturbation and Representation Drift in the Dynamics of Hallucination in LLMs はコメントを受け付けていません
Power-Law Decay Loss for Large Language Model Finetuning: Focusing on Information Sparsity to Enhance Generation Quality
要約 テキスト生成タスクの微調整段階では、標準的なクロスエントロピー損失はすべて … 続きを読む
UNCLE: Uncertainty Expressions in Long-Form Generation
要約 大規模な言語モデル(LLM)は、特に長期の世代では幻覚を起こしやすいです。 … 続きを読む
カテゴリー: cs.CL
UNCLE: Uncertainty Expressions in Long-Form Generation はコメントを受け付けていません