月別アーカイブ: 2023年9月

On Learning with LAD

要約 データの論理分析である LAD は、選言正規形 (DNF) 表現を持つブー … 続きを読む

カテゴリー: cs.LG | On Learning with LAD はコメントを受け付けていません

Robust Offline Reinforcement Learning — Certify the Confidence Interval

要約 現在、強化学習 (RL)、特にディープ RL が研究分野でますます注目を集 … 続きを読む

カテゴリー: cs.LG | Robust Offline Reinforcement Learning — Certify the Confidence Interval はコメントを受け付けていません

Data Augmentation in the Underparameterized and Overparameterized Regimes

要約 データ拡張が推定値の分散と限界分布にどのような影響を与えるかを正確に定量化 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Data Augmentation in the Underparameterized and Overparameterized Regimes はコメントを受け付けていません

Learning Interpretable Characteristic Kernels via Decision Forests

要約 デシジョン フォレストは、分類および回帰タスクに広く使用されています。 ツ … 続きを読む

カテゴリー: cs.LG, stat.ML | Learning Interpretable Characteristic Kernels via Decision Forests はコメントを受け付けていません

Reusability report: Prostate cancer stratification with diverse biologically-informed neural architectures

要約 Elmarakeby らの「前立腺がん発見のための生物学的に情報を与えられ … 続きを読む

カテゴリー: cs.LG | Reusability report: Prostate cancer stratification with diverse biologically-informed neural architectures はコメントを受け付けていません

HyperPPO: A scalable method for finding small policies for robotic control

要約 メモリが限られた高性能ロボットのニューラル制御には、パラメーターの少ないモ … 続きを読む

カテゴリー: cs.LG, cs.RO | HyperPPO: A scalable method for finding small policies for robotic control はコメントを受け付けていません

Towards Best Practices of Activation Patching in Language Models: Metrics and Methods

要約 機械的解釈可能性は、機械学習モデルの内部メカニズムを理解することを目指して … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Towards Best Practices of Activation Patching in Language Models: Metrics and Methods はコメントを受け付けていません

Visualizing Linguistic Diversity of Text Datasets Synthesized by Large Language Models

要約 大規模言語モデル (LLM) を使用すると、ベンチマーク、微調整、またはそ … 続きを読む

カテゴリー: cs.AI, cs.CL | Visualizing Linguistic Diversity of Text Datasets Synthesized by Large Language Models はコメントを受け付けていません

AnyMAL: An Efficient and Scalable Any-Modality Augmented Language Model

要約 我々は、多様な入力モダリティ信号 (つまり、テキスト、画像、ビデオ、オーデ … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | AnyMAL: An Efficient and Scalable Any-Modality Augmented Language Model はコメントを受け付けていません

Forgetting Private Textual Sequences in Language Models via Leave-One-Out Ensemble

要約 最近の研究では、言語モデルがトレーニング コーパス内の希少または固有のトー … 続きを読む

カテゴリー: cs.AI, cs.CL | Forgetting Private Textual Sequences in Language Models via Leave-One-Out Ensemble はコメントを受け付けていません