要約
ニューラル ネットワークは、検証セット内の正しい予測につながる偽の相関を学習できますが、予測が誤った理由で正しいため、一般化が不十分です。
このようなナイーブ ショートカットの望ましくない学習 (クレバー ハンス効果) は、背景の手がかり (メタデータなど) がクラスに偏っていて、モデルが画像コンテンツではなく背景の特徴に焦点を当てることを学習する場合、たとえば心エコー図ビューの分類で発生する可能性があります。
私たちは、トレーニング セット内の他のサンプルからランダムな背景をサンプリングする、BackMix と呼ばれる、シンプルでありながら効果的なランダム背景増強方法を提案します。
背景が結果と相関しないように強制することにより、モデルは超音波セクター内のデータに焦点を当てることを学習し、超音波セクター外の領域に対して不変になります。
私たちはこの方法を半教師あり設定で拡張し、BackMix のプラスの効果がわずか 5% のセグメンテーション ラベルでも維持されることを発見しました。
損失重み付けメカニズムである wBackMix も、拡張されたサンプルの寄与を増やすために提案されています。
私たちは分布内データセットと分布外データセットの両方で手法を検証し、分類精度、領域の焦点、一般化可能性が大幅に向上していることを実証しました。
私たちのソースコードはhttps://github.com/kitbransby/BackMixから入手できます。
要約(オリジナル)
Neural networks can learn spurious correlations that lead to the correct prediction in a validation set, but generalise poorly because the predictions are right for the wrong reason. This undesired learning of naive shortcuts (Clever Hans effect) can happen for example in echocardiogram view classification when background cues (e.g. metadata) are biased towards a class and the model learns to focus on those background features instead of on the image content. We propose a simple, yet effective random background augmentation method called BackMix, which samples random backgrounds from other examples in the training set. By enforcing the background to be uncorrelated with the outcome, the model learns to focus on the data within the ultrasound sector and becomes invariant to the regions outside this. We extend our method in a semi-supervised setting, finding that the positive effects of BackMix are maintained with as few as 5% of segmentation labels. A loss weighting mechanism, wBackMix, is also proposed to increase the contribution of the augmented examples. We validate our method on both in-distribution and out-of-distribution datasets, demonstrating significant improvements in classification accuracy, region focus and generalisability. Our source code is available at: https://github.com/kitbransby/BackMix
arxiv情報
著者 | Kit Mills Bransby,Arian Beqiri,Woo-Jin Cho Kim,Jorge Oliveira,Agisilaos Chartsias,Alberto Gomez |
発行日 | 2024-06-27 13:06:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google