Active Learning with Weak Supervision for Gaussian Processes

要約

教師あり学習用にデータにアノテーションを付けると、コストがかかる場合があります。
アノテーションの予算が限られている場合は、アクティブ ラーニングを使用して、モデルのパフォーマンスが最も向上する可能性が高い観測値を選択してアノテーションを付けることができます。
我々は、どの観測に注釈を付けるかを選択することに加えて、取得される注釈の精度を選択する能動学習アルゴリズムを提案します。
精度の低いアノテーションの取得コストが低いと仮定すると、これにより、モデルは同じアノテーション バジェットで入力空間のより広い部分を探索できるようになります。
ガウス過程に対して以前に提案された BALD 目標に基づいて取得関数を構築し、アクティブ ラーニング ループでアノテーションの精度を調整できることの利点を経験的に実証します。

要約(オリジナル)

Annotating data for supervised learning can be costly. When the annotation budget is limited, active learning can be used to select and annotate those observations that are likely to give the most gain in model performance. We propose an active learning algorithm that, in addition to selecting which observation to annotate, selects the precision of the annotation that is acquired. Assuming that annotations with low precision are cheaper to obtain, this allows the model to explore a larger part of the input space, with the same annotation budget. We build our acquisition function on the previously proposed BALD objective for Gaussian Processes, and empirically demonstrate the gains of being able to adjust the annotation precision in the active learning loop.

arxiv情報

著者 Amanda Olmin,Jakob Lindqvist,Lennart Svensson,Fredrik Lindsten
発行日 2023-06-09 13:51:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク