cs.LG」カテゴリーアーカイブ

Optimistic Online Learning in Symmetric Cone Games

要約 最適化オンライン学習アルゴリズムにより、特に2人零和ゲームの均衡計算が大き … 続きを読む

カテゴリー: cs.GT, cs.LG, math.OC | Optimistic Online Learning in Symmetric Cone Games はコメントを受け付けていません

Trading off Relevance and Revenue in the Jobs Marketplace: Estimation, Optimization and Auction Design

要約 我々は、プラットフォームが求職者ごとに求人のランキングを決定する、ジョブマ … 続きを読む

カテゴリー: cs.GT, cs.LG | Trading off Relevance and Revenue in the Jobs Marketplace: Estimation, Optimization and Auction Design はコメントを受け付けていません

Reciprocity-Aware Convolutional Neural Networks for Map-Based Path Loss Prediction

要約 パスロス・モデリングは、送信機(Tx)から受信機(Rx)までの通信リンクに … 続きを読む

カテゴリー: cs.LG, eess.SP | Reciprocity-Aware Convolutional Neural Networks for Map-Based Path Loss Prediction はコメントを受け付けていません

Quantum Speedups for Markov Chain Monte Carlo Methods with Application to Optimization

要約 我々は、ポテンシャル関数を$f$とする確率分布からのサンプリングによく用い … 続きを読む

カテゴリー: cs.LG, math.OC, quant-ph | Quantum Speedups for Markov Chain Monte Carlo Methods with Application to Optimization はコメントを受け付けていません

Think When You Need: Self-Adaptive Chain-of-Thought Learning

要約 思考の連鎖(CoT)推論は言語モデルの性能を向上させるが、単純な問題では非 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Think When You Need: Self-Adaptive Chain-of-Thought Learning はコメントを受け付けていません

Evaluating Compact LLMs for Zero-Shot Iberian Language Tasks on End-User Devices

要約 大規模言語モデルは、言語生成、翻訳、推論などのタスクで顕著な性能を達成し、 … 続きを読む

カテゴリー: cs.CL, cs.LG | Evaluating Compact LLMs for Zero-Shot Iberian Language Tasks on End-User Devices はコメントを受け付けていません

Adaptive Semantic Prompt Caching with VectorQ

要約 意味的プロンプトキャッシュは、意味的に類似したプロンプトに対してキャッシュ … 続きを読む

カテゴリー: cs.CL, cs.LG | Adaptive Semantic Prompt Caching with VectorQ はコメントを受け付けていません

Minority-Focused Text-to-Image Generation via Prompt Optimization

要約 我々は、事前学習されたテキスト対画像(T2I)潜在拡散モデルを用いた少数サ … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG | Minority-Focused Text-to-Image Generation via Prompt Optimization はコメントを受け付けていません

Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency

要約 大規模言語モデル(LLM)をエッジデバイス上に展開することは、計算上の制約 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Sustainable LLM Inference for Edge AI: Evaluating Quantized LLMs for Energy Efficiency, Output Accuracy, and Inference Latency はコメントを受け付けていません

Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients?

要約 臨床医には、医療機械学習システムの使用を患者に開示する倫理的義務があり、そ … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG | Are clinicians ethically obligated to disclose their use of medical machine learning systems to patients? はコメントを受け付けていません