Recycling diverse models for out-of-distribution generalization

要約

基盤モデルは、AI システムの構築方法を再定義しています。
現在、実践者は標準的な手順に従って機械学習ソリューションを構築しています。基礎モデルのコピーをダウンロードし、関心のあるターゲット タスクに関する社内データを使用して微調整します。
その結果、インターネットは、多くの多様なタスクに合わせて微調整された少数の基盤モデルであふれかえっています。
しかし、これらの個々の微調整は、多くの場合、強力な一般化に欠けており、相互に利益を得ることなく孤立して存在しています。
私たちの意見では、これらの特殊なモデルにはさまざまな機能が含まれているため、これは機会を逃したものです。
この洞察に基づいて、モデルのリサイクルを提案します。これは、さまざまな補助タスクで同じ基盤モデルの複数の微調整を活用し、それらをターゲット タスクの豊富で多様な初期化として再利用する単純な戦略です。
具体的には、モデル リサイクルは、ターゲット タスクに特化した各モデルを並行して微調整し、すべてのターゲット微調整の重みを平均して最終モデルにします。
経験的に、モデルのリサイクルが多様な補助タスクの恩恵を受けることでモデルの多様性を最大化し、分散外の一般化のための参照 DomainBed ベンチマークで新しい最先端技術を達成することを示します。
今後、モデルのリサイクルは、更新可能な機械学習の新たなパラダイムへの貢献となります。このパラダイムでは、オープンソース ソフトウェア開発と同様に、コミュニティが協力して機械学習モデルを段階的かつ確実に更新します。

要約(オリジナル)

Foundation models are redefining how AI systems are built. Practitioners now follow a standard procedure to build their machine learning solutions: download a copy of a foundation model, and fine-tune it using some in-house data about the target task of interest. Consequently, the Internet is swarmed by a handful of foundation models fine-tuned on many diverse tasks. Yet, these individual fine-tunings often lack strong generalization and exist in isolation without benefiting from each other. In our opinion, this is a missed opportunity, as these specialized models contain diverse features. Based on this insight, we propose model recycling, a simple strategy that leverages multiple fine-tunings of the same foundation model on diverse auxiliary tasks, and repurposes them as rich and diverse initializations for the target task. Specifically, model recycling fine-tunes in parallel each specialized model on the target task, and then averages the weights of all target fine-tunings into a final model. Empirically, we show that model recycling maximizes model diversity by benefiting from diverse auxiliary tasks, and achieves a new state of the art on the reference DomainBed benchmark for out-of-distribution generalization. Looking forward, model recycling is a contribution to the emerging paradigm of updatable machine learning where, akin to open-source software development, the community collaborates to incrementally and reliably update machine learning models.

arxiv情報

著者 Alexandre Ramé,Kartik Ahuja,Jianyu Zhang,Matthieu Cord,Léon Bottou,David Lopez-Paz
発行日 2022-12-20 17:21:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク