月別アーカイブ: 2024年6月

Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations

要約 加法構造、つまり $f_*(x) = \frac{1} を使用したターゲッ … 続きを読む

カテゴリー: cs.LG, stat.ML | Learning sum of diverse features: computational hardness and efficient gradient-based training for ridge combinations はコメントを受け付けていません

‘Not Aligned’ is Not ‘Malicious’: Being Careful about Hallucinations of Large Language Models’ Jailbreak

要約 「脱獄」は、大規模言語モデル (LLM) の安全性に関する主要な懸念事項で … 続きを読む

カテゴリー: cs.CL | ‘Not Aligned’ is Not ‘Malicious’: Being Careful about Hallucinations of Large Language Models’ Jailbreak はコメントを受け付けていません

Endor: Hardware-Friendly Sparse Format for Offloaded LLM Inference

要約 大規模言語モデル (LLM) のサイズが増大しているため、リソースに制約の … 続きを読む

カテゴリー: cs.CL | Endor: Hardware-Friendly Sparse Format for Offloaded LLM Inference はコメントを受け付けていません

TourRank: Utilizing Large Language Models for Documents Ranking with a Tournament-Inspired Strategy

要約 大規模言語モデル (LLM) は、ゼロショット ドキュメントのランキングに … 続きを読む

カテゴリー: cs.CL, cs.IR | TourRank: Utilizing Large Language Models for Documents Ranking with a Tournament-Inspired Strategy はコメントを受け付けていません

On the Convergence of Zeroth-Order Federated Tuning for Large Language Models

要約 Federated Learning (FL) と Large Langu … 続きを読む

カテゴリー: cs.CL, cs.LG | On the Convergence of Zeroth-Order Federated Tuning for Large Language Models はコメントを受け付けていません

HoLLMwood: Unleashing the Creativity of Large Language Models in Screenwriting via Role Playing

要約 生成 AI は、コンピューター ビジョンの分野で前例のない創造性を実証しま … 続きを読む

カテゴリー: cs.CL | HoLLMwood: Unleashing the Creativity of Large Language Models in Screenwriting via Role Playing はコメントを受け付けていません

Tokenization Falling Short: The Curse of Tokenization

要約 言語モデルは通常、生のテキストを事前定義された語彙からのサブワード識別子の … 続きを読む

カテゴリー: cs.CL | Tokenization Falling Short: The Curse of Tokenization はコメントを受け付けていません

Meta Reasoning for Large Language Models

要約 人間のメタ推論にヒントを得た、大規模言語モデル (LLM) 用の斬新で効率 … 続きを読む

カテゴリー: cs.CL | Meta Reasoning for Large Language Models はコメントを受け付けていません

Prompts as Auto-Optimized Training Hyperparameters: Training Best-in-Class IR Models from Scratch with 10 Gold Labels

要約 私たちは、わずか 10 個のゴールド関連ラベルを使用して小規模 (1 億パ … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG | Prompts as Auto-Optimized Training Hyperparameters: Training Best-in-Class IR Models from Scratch with 10 Gold Labels はコメントを受け付けていません

Instruct, Not Assist: LLM-based Multi-Turn Planning and Hierarchical Questioning for Socratic Code Debugging

要約 ソクラテス的質問は効果的な教育戦略であり、批判的思考と問題解決を促します。 … 続きを読む

カテゴリー: cs.CL, cs.MA | Instruct, Not Assist: LLM-based Multi-Turn Planning and Hierarchical Questioning for Socratic Code Debugging はコメントを受け付けていません