月別アーカイブ: 2023年5月

Making Intelligence: Ethical Values in IQ and ML Benchmarks

要約 近年、ML研究者は、機械学習(ML)ベンチマークやデータセットの定義や改良 … 続きを読む

カテゴリー: cs.CY, cs.LG | Making Intelligence: Ethical Values in IQ and ML Benchmarks はコメントを受け付けていません

More Communication Does Not Result in Smaller Generalization Error in Federated Learning

要約 本研究では、Federated Learning (FL)環境における統計 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | More Communication Does Not Result in Smaller Generalization Error in Federated Learning はコメントを受け付けていません

Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural Networks

要約 ディープラーニングの理論における中心的な問題の1つは、ニューラルネットワー … 続きを読む

カテゴリー: cs.LG, stat.ML | Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural Networks はコメントを受け付けていません

Neural Wave Functions for Superfluids

要約 超流動現象の解明は、物性物理学の主要な目標である。ここでは、最近開発された … 続きを読む

カテゴリー: cond-mat.quant-gas, cond-mat.supr-con, cs.LG, physics.comp-ph | Neural Wave Functions for Superfluids はコメントを受け付けていません

A statistical approach to detect sensitive features in a group fairness setting

要約 社会的影響の大きい意思決定支援システムで機械学習モデルを使用すると、異なる … 続きを読む

カテゴリー: cs.CY, cs.LG | A statistical approach to detect sensitive features in a group fairness setting はコメントを受け付けていません

Towards Robust Low-Resource Fine-Tuning with Multi-View Compressed Representations

要約 膨大な量のパラメータのために、事前学習された言語モデル(PLM)の微調整は … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Towards Robust Low-Resource Fine-Tuning with Multi-View Compressed Representations はコメントを受け付けていません

DiffuSum: Generation Enhanced Extractive Summarization with Diffusion

要約 抽出的要約は、ソース文書から直接文章を抽出することによって要約を形成するこ … 続きを読む

カテゴリー: cs.CL | DiffuSum: Generation Enhanced Extractive Summarization with Diffusion はコメントを受け付けていません

HyPe: Better Pre-trained Language Model Fine-tuning with Hidden Representation Perturbation

要約 Transformers構造を持つ言語モデルは、自然言語処理において高い性 … 続きを読む

カテゴリー: cs.CL | HyPe: Better Pre-trained Language Model Fine-tuning with Hidden Representation Perturbation はコメントを受け付けていません

Autocorrelations Decay in Texts and Applicability Limits of Language Models

要約 テキスト中の自己相関の減衰の法則は、言語モデルの適用限界と密接な関係がある … 続きを読む

カテゴリー: cs.CL, I.2.7 | Autocorrelations Decay in Texts and Applicability Limits of Language Models はコメントを受け付けていません

Serial Contrastive Knowledge Distillation for Continual Few-shot Relation Extraction

要約 連続数ショット関係抽出(RE)は、少ないラベル付き学習データで新しい関係モ … 続きを読む

カテゴリー: cs.CL | Serial Contrastive Knowledge Distillation for Continual Few-shot Relation Extraction はコメントを受け付けていません