月別アーカイブ: 2024年7月

YZS-model: A Predictive Model for Organic Drug Solubility Based on Graph Convolutional Networks and Transformer-Attention

要約 薬剤分子の溶解度を正確に予測することは、薬剤のADMEプロセスに影響を与え … 続きを読む

カテゴリー: cs.AI, cs.LG | YZS-model: A Predictive Model for Organic Drug Solubility Based on Graph Convolutional Networks and Transformer-Attention はコメントを受け付けていません

Commodification of Compute

要約 人工知能、ビッグデータ分析、クラウドコンピューティングの急速な進歩により、 … 続きを読む

カテゴリー: cs.AI, cs.CE, cs.CY, cs.ET, econ.GN, q-fin.EC | Commodification of Compute はコメントを受け付けていません

Temperature-scaling surprisal estimates improve fit to human reading times — but does it do so for the ‘right reasons’?

要約 人間の言語処理の難易度は、情報理論的な尺度であるsurprisal(文脈に … 続きを読む

カテゴリー: cs.AI, cs.CL | Temperature-scaling surprisal estimates improve fit to human reading times — but does it do so for the ‘right reasons’? はコメントを受け付けていません

TieBot: Learning to Knot a Tie from Visual Demonstration through a Real-to-Sim-to-Real Approach

要約 ネクタイの結び方タスクは、ネクタイの変形が大きく、操作動作が長周期であるた … 続きを読む

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | TieBot: Learning to Knot a Tie from Visual Demonstration through a Real-to-Sim-to-Real Approach はコメントを受け付けていません

Unveiling and Controlling Anomalous Attention Distribution in Transformers

要約 Transformerアーキテクチャに基づく大規模なモデルの出現に伴い、研 … 続きを読む

カテゴリー: cs.AI, cs.LG | Unveiling and Controlling Anomalous Attention Distribution in Transformers はコメントを受け付けていません

Diffusion Models for Offline Multi-agent Reinforcement Learning with Safety Constraints

要約 近年のマルチエージェント強化学習(MARL)の進歩により、その応用は様々な … 続きを読む

カテゴリー: cs.AI, cs.LG | Diffusion Models for Offline Multi-agent Reinforcement Learning with Safety Constraints はコメントを受け付けていません

CaLMQA: Exploring culturally specific long-form question answering across 23 languages

要約 大規模言語モデル(LLM)は長文質問応答(LFQA)に使用され、複雑な質問 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | CaLMQA: Exploring culturally specific long-form question answering across 23 languages はコメントを受け付けていません

Adam-mini: Use Fewer Learning Rates To Gain More

要約 我々は、AdamWと同等かそれ以上の性能を、45%から50%少ないメモリフ … 続きを読む

カテゴリー: cs.AI, cs.LG | Adam-mini: Use Fewer Learning Rates To Gain More はコメントを受け付けていません

Do Quantum Neural Networks have Simplicity Bias?

要約 ディープニューラルネットワーク(DNN)の成功の1つの仮説は、DNNは表現 … 続きを読む

カテゴリー: cs.AI, cs.LG, physics.app-ph, quant-ph | Do Quantum Neural Networks have Simplicity Bias? はコメントを受け付けていません

Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization

要約 大規模言語モデル(LLM)は、長い入力文脈を処理するように特別に訓練された … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Found in the Middle: Calibrating Positional Attention Bias Improves Long Context Utilization はコメントを受け付けていません