要約
よく一般化する機械学習モデルは、目に見えないテスト例で低いエラーを取得する必要があります。
したがって、トレーニング データで最適なモデルを学習すると、テスト タスクでの汎化パフォーマンスが向上する可能性があります。
ただし、テスト データの分布が不明であるため、標準的な機械学習フレームワークではこのようなモデルを学習することはできません。
この課題に取り組むために、未知の画像ベースのテストタスクに対してより堅牢であり、トレーニングタスクで分布がシフトする、新しい堅牢なメタ学習方法を提案します。
当社の堅牢なメタ学習法は、各分布からのデータが不足している場合でも、堅牢な最適モデルを提供できます。
実験では、アルゴリズムがより優れた一般化パフォーマンスを発揮するだけでなく、さまざまな未知のテスト タスクに対しても堅牢であることを示しています。
要約(オリジナル)
A machine learning model that generalizes well should obtain low errors on unseen test examples. Thus, if we learn an optimal model in training data, it could have better generalization performance in testing tasks. However, learning such a model is not possible in standard machine learning frameworks as the distribution of the test data is unknown. To tackle this challenge, we propose a novel robust meta-learning method, which is more robust to the image-based testing tasks which is unknown and has distribution shifts with training tasks. Our robust meta-learning method can provide robust optimal models even when data from each distribution are scarce. In experiments, we demonstrate that our algorithm not only has better generalization performance but also robust to different unknown testing tasks.
arxiv情報
著者 | Penghao Jiang,Xin Ke,ZiFeng Wang,Chunxi Li |
発行日 | 2023-02-21 16:49:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google