月別アーカイブ: 2023年5月

Q-malizing flow and infinitesimal density ratio estimation

要約 連続正規化フローは、フロー ネットワークがデータ分布 $P$ から正規分布 … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Q-malizing flow and infinitesimal density ratio estimation はコメントを受け付けていません

Is TinyML Sustainable? Assessing the Environmental Impacts of Machine Learning on Microcontrollers

要約 炭素排出量と地球規模の廃棄物の持続的な増加は、環境の将来に対する持続可能性 … 続きを読む

カテゴリー: cs.AR, cs.CY, cs.LG | Is TinyML Sustainable? Assessing the Environmental Impacts of Machine Learning on Microcontrollers はコメントを受け付けていません

Photo-zSNthesis: Converting Type Ia Supernova Lightcurves to Redshift Estimates via Deep Learning

要約 今後の測光調査では、分光資源の能力を大幅に上回る数万個の Ia 型超新星 … 続きを読む

カテゴリー: astro-ph.CO, astro-ph.IM, cs.LG | Photo-zSNthesis: Converting Type Ia Supernova Lightcurves to Redshift Estimates via Deep Learning はコメントを受け付けていません

Searching by Code: a New SearchBySnippet Dataset and SnippeR Retrieval Model for Searching by Code Snippets

要約 コード検索は、近年多くの開発が行われている重要なタスクです。 ただし、これ … 続きを読む

カテゴリー: cs.CL, cs.SE | Searching by Code: a New SearchBySnippet Dataset and SnippeR Retrieval Model for Searching by Code Snippets はコメントを受け付けていません

CCT-Code: Cross-Consistency Training for Multilingual Clone Detection and Code Search

要約 私たちは、あらゆるプログラミング言語にとって重要なよく知られたタスクである … 続きを読む

カテゴリー: cs.CL, cs.SE | CCT-Code: Cross-Consistency Training for Multilingual Clone Detection and Code Search はコメントを受け付けていません

LLM-Pruner: On the Structural Pruning of Large Language Models

要約 大規模言語モデル (LLM) は、言語の理解と生成において顕著な能力を示し … 続きを読む

カテゴリー: cs.CL | LLM-Pruner: On the Structural Pruning of Large Language Models はコメントを受け付けていません

Bias Beyond English: Counterfactual Tests for Bias in Sentiment Analysis in Four Languages

要約 感情分析 (SA) システムは、多くの製品と数百の言語で使用されています。 … 続きを読む

カテゴリー: cs.CL | Bias Beyond English: Counterfactual Tests for Bias in Sentiment Analysis in Four Languages はコメントを受け付けていません

Sensing of inspiration events from speech: comparison of deep learning and linguistic methods

要約 呼吸用チェストベルトセンサーを使用して、呼吸数やその他の呼吸器の健康パラメ … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.SD, eess.AS | Sensing of inspiration events from speech: comparison of deep learning and linguistic methods はコメントを受け付けていません

Recycle-and-Distill: Universal Compression Strategy for Transformer-based Speech SSL Models with Attention Map Reusing and Masking Distillation

要約 HuBERT などのトランスフォーマーベースの音声自己教師あり学習 (SS … 続きを読む

カテゴリー: cs.CL, cs.LG, eess.AS | Recycle-and-Distill: Universal Compression Strategy for Transformer-based Speech SSL Models with Attention Map Reusing and Masking Distillation はコメントを受け付けていません

ERNIE-Code: Beyond English-Centric Cross-lingual Pretraining for Programming Languages

要約 同じプログラミング言語 (PL) を使用して作業するソフトウェア エンジニ … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.PL, cs.SE | ERNIE-Code: Beyond English-Centric Cross-lingual Pretraining for Programming Languages はコメントを受け付けていません