要約
本稿では、ガウス混合モデル(GMM)上での半教師付きマルチタスク学習について考察する。統計物理学の手法を用い、高次元の大規模データセットの領域における各タスクの漸近ベイズリスクを計算し、そこから学習におけるタスクの類似性の役割を分析し、タスクを別々に学習するのではなく、一緒に学習した場合の性能向上を評価する。教師ありの場合、ベイズ最適性能を達成する簡単なアルゴリズムを導出する。
要約(オリジナル)
The article considers semi-supervised multitask learning on a Gaussian mixture model (GMM). Using methods from statistical physics, we compute the asymptotic Bayes risk of each task in the regime of large datasets in high dimension, from which we analyze the role of task similarity in learning and evaluate the performance gain when tasks are learned together rather than separately. In the supervised case, we derive a simple algorithm that attains the Bayes optimal performance.
arxiv情報
著者 | Minh-Toan Nguyen,Romain Couillet |
発行日 | 2023-03-03 16:17:30+00:00 |
arxivサイト | arxiv_id(pdf) |