Understanding new tasks through the lens of training data via exponential tilting

要約

最新のトレーニング データセットのサイズが大きいにもかかわらず、機械学習モデルを新しいタスクに展開することは大きな課題です。
ただし、トレーニング データを再重み付けして、新しい (ターゲット) タスクをより代表的にすることができると考えられます。
ターゲットタスクの分布に関する洞察を得るために、トレーニングサンプルを再評価する問題を検討します。
具体的には、指数傾斜の仮定に基づいて分布シフト モデルを定式化し、ラベル付けされた列車とラベル付けされていないターゲット データセット間の KL 相違を最小限に抑える列車データの重要度の重みを学習します。
学習したトレーニング データの重みは、ターゲットのパフォーマンス評価、微調整、モデルの選択などのダウンストリーム タスクに使用できます。
Waterbirds と Breeds のベンチマークで、この手法の有効性を実証します。

要約(オリジナル)

Deploying machine learning models to new tasks is a major challenge despite the large size of the modern training datasets. However, it is conceivable that the training data can be reweighted to be more representative of the new (target) task. We consider the problem of reweighing the training samples to gain insights into the distribution of the target task. Specifically, we formulate a distribution shift model based on the exponential tilt assumption and learn train data importance weights minimizing the KL divergence between labeled train and unlabeled target datasets. The learned train data weights can then be used for downstream tasks such as target performance evaluation, fine-tuning, and model selection. We demonstrate the efficacy of our method on Waterbirds and Breeds benchmarks.

arxiv情報

著者 Subha Maity,Mikhail Yurochkin,Moulinath Banerjee,Yuekai Sun
発行日 2023-02-21 17:09:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME, stat.ML パーマリンク