-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年6月
Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations
要約 加法構造、つまり $f_*(x) = \frac{1} を使用したターゲッ … 続きを読む
‘Not Aligned’ is Not ‘Malicious’: Being Careful about Hallucinations of Large Language Models’ Jailbreak
要約 「脱獄」は、大規模言語モデル (LLM) の安全性に関する主要な懸念事項で … 続きを読む
カテゴリー: cs.CL
‘Not Aligned’ is Not ‘Malicious’: Being Careful about Hallucinations of Large Language Models’ Jailbreak はコメントを受け付けていません
Endor: Hardware-Friendly Sparse Format for Offloaded LLM Inference
要約 大規模言語モデル (LLM) のサイズが増大しているため、リソースに制約の … 続きを読む
カテゴリー: cs.CL
Endor: Hardware-Friendly Sparse Format for Offloaded LLM Inference はコメントを受け付けていません
TourRank: Utilizing Large Language Models for Documents Ranking with a Tournament-Inspired Strategy
要約 大規模言語モデル (LLM) は、ゼロショット ドキュメントのランキングに … 続きを読む
On the Convergence of Zeroth-Order Federated Tuning for Large Language Models
要約 Federated Learning (FL) と Large Langu … 続きを読む
HoLLMwood: Unleashing the Creativity of Large Language Models in Screenwriting via Role Playing
要約 生成 AI は、コンピューター ビジョンの分野で前例のない創造性を実証しま … 続きを読む
カテゴリー: cs.CL
HoLLMwood: Unleashing the Creativity of Large Language Models in Screenwriting via Role Playing はコメントを受け付けていません
Tokenization Falling Short: The Curse of Tokenization
要約 言語モデルは通常、生のテキストを事前定義された語彙からのサブワード識別子の … 続きを読む
カテゴリー: cs.CL
Tokenization Falling Short: The Curse of Tokenization はコメントを受け付けていません
Meta Reasoning for Large Language Models
要約 人間のメタ推論にヒントを得た、大規模言語モデル (LLM) 用の斬新で効率 … 続きを読む
カテゴリー: cs.CL
Meta Reasoning for Large Language Models はコメントを受け付けていません
Prompts as Auto-Optimized Training Hyperparameters: Training Best-in-Class IR Models from Scratch with 10 Gold Labels
要約 私たちは、わずか 10 個のゴールド関連ラベルを使用して小規模 (1 億パ … 続きを読む
Instruct, Not Assist: LLM-based Multi-Turn Planning and Hierarchical Questioning for Socratic Code Debugging
要約 ソクラテス的質問は効果的な教育戦略であり、批判的思考と問題解決を促します。 … 続きを読む