Alignment with human representations supports robust few-shot learning

要約

AI システムが人間と同様の世界の表現を持っているかどうかを気にする必要があるでしょうか?
我々は、人間との表現的一致の度合いと、数ショット学習タスクのパフォーマンスとの間に U 字型の関係があるはずであることを示唆する情報理論分析を提供します。
私たちはこの予測を経験的に確認し、491 個のコンピューター ビジョン モデルのパフォーマンスの分析でそのような関係を発見しました。
また、高度に調整されたモデルは、自然な敵対的攻撃とドメイン シフトの両方に対してより堅牢であることも示します。
私たちの結果は、人間による調整は、モデルが限られたデータを効果的に使用し、堅牢で、適切に一般化するための十分な条件であることが多いが、必須ではないことを示唆しています。

要約(オリジナル)

Should we care whether AI systems have representations of the world that are similar to those of humans? We provide an information-theoretic analysis that suggests that there should be a U-shaped relationship between the degree of representational alignment with humans and performance on few-shot learning tasks. We confirm this prediction empirically, finding such a relationship in an analysis of the performance of 491 computer vision models. We also show that highly-aligned models are more robust to both natural adversarial attacks and domain shifts. Our results suggest that human-alignment is often a sufficient, but not necessary, condition for models to make effective use of limited data, be robust, and generalize well.

arxiv情報

著者 Ilia Sucholutsky,Thomas L. Griffiths
発行日 2023-10-29 19:45:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG, stat.ML パーマリンク