Model Ratatouille: Recycling Diverse Models for Out-of-Distribution Generalization

要約

基盤モデルは、AI システムの構築方法を再定義しています。
実務者は現在、標準的な手順に従って機械学習ソリューションを構築しています。つまり、事前トレーニングされた基礎モデルから、対象となるターゲット タスクの重みを微調整します。
そのため、インターネットには、多くの多様なタスクに合わせて微調整された少数の基礎モデルが群がっています。これらの個々の微調整は、相互に恩恵を受けることなく孤立して存在します。
これらの特殊なモデルには豊富で多様な機能が含まれているため、これは機会損失であると私たちは考えています。
したがって、この論文では、さまざまな補助タスクで同じ基礎モデルの複数の微調整を再利用する新しい戦略であるモデルのレタトゥイユを提案します。
具体的には、これらの補助重みを、ターゲット タスクに対する複数の並列微調整のための初期化として再利用します。
次に、すべての微調整された重みを平均して、最終モデルを取得します。
このリサイクル戦略は、補助タスクの多様性を活用することで重量の多様性を最大化することを目的としています。
経験的には、配布外の一般化のための参照 DomainBed ベンチマークの最先端技術が向上します。
今後、この取り組みは、オープンソース ソフトウェア開発と同様に、コミュニティが協力して機械学習モデルを確実に更新する、更新可能な機械学習の新たなパラダイムに貢献します。
私たちのコードはhttps://github.com/facebookresearch/ModelRatatouilleでリリースされています。

要約(オリジナル)

Foundation models are redefining how AI systems are built. Practitioners now follow a standard procedure to build their machine learning solutions: from a pre-trained foundation model, they fine-tune the weights on the target task of interest. So, the Internet is swarmed by a handful of foundation models fine-tuned on many diverse tasks: these individual fine-tunings exist in isolation without benefiting from each other. In our opinion, this is a missed opportunity, as these specialized models contain rich and diverse features. In this paper, we thus propose model ratatouille, a new strategy to recycle the multiple fine-tunings of the same foundation model on diverse auxiliary tasks. Specifically, we repurpose these auxiliary weights as initializations for multiple parallel fine-tunings on the target task; then, we average all fine-tuned weights to obtain the final model. This recycling strategy aims at maximizing the diversity in weights by leveraging the diversity in auxiliary tasks. Empirically, it improves the state of the art on the reference DomainBed benchmark for out-of-distribution generalization. Looking forward, this work contributes to the emerging paradigm of updatable machine learning where, akin to open-source software development, the community collaborates to reliably update machine learning models. Our code is released: https://github.com/facebookresearch/ModelRatatouille.

arxiv情報

著者 Alexandre Ramé,Kartik Ahuja,Jianyu Zhang,Matthieu Cord,Léon Bottou,David Lopez-Paz
発行日 2023-08-09 14:02:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク