要約
文字列間の正書法の類似性の尺度を提供するマスクされたプライミング データを説明するために、さまざまな正書法のコーディング スキームと視覚的な単語識別のモデルが開発されています。
これらのモデルには、特定の形式の知識を単一単位でコーディングした手書きの正書法表現が含まれる傾向があります (たとえば、特定の位置にある文字をコーディングする単位)。
ここでは、これらのコーディング スキームとモデルの範囲が、フォーム プライミング プロジェクトから取得したフォーム プライミング効果のパターンをどの程度うまく説明しているかを評価し、これらの調査結果を、コンピューター サイエンスで開発された 11 の標準的なディープ ニューラル ネットワーク モデル (DNN) で観察された結果と比較します。
深層畳み込みネットワーク (CNN) は、コーディング スキームや単語認識モデルと同等またはそれ以上のパフォーマンスを発揮しますが、トランスフォーマー ネットワークのパフォーマンスは劣ります。
CNN の成功は、そのアーキテクチャが単語認識をサポートするように開発されておらず (オブジェクト認識でうまく機能するように設計されていた)、(文字列の人工的なエンコーディングではなく) 単語のピクセル画像を分類し、トレーニングが非常に単純化されていたため、注目に値します。
(人間の経験の多くの重要な側面を尊重していません)。
これらのフォーム プライミング効果に加えて、DNN は、現在のすべてのプライミングの心理モデルを超える、プライミングに対する視覚的類似性効果を説明できることがわかりました。
この調査結果は、(Hannagan et al., 2021) の最近の研究に追加され、人間の視覚的な単語認識のモデルとして、心理学において CNN にもっと注意を払う必要があることを示唆しています。
要約(オリジナル)
A wide variety of orthographic coding schemes and models of visual word identification have been developed to account for masked priming data that provide a measure of orthographic similarity between letter strings. These models tend to include hand-coded orthographic representations with single unit coding for specific forms of knowledge (e.g., units coding for a letter in a given position). Here we assess how well a range of these coding schemes and models account for the pattern of form priming effects taken from the Form Priming Project and compare these findings to results observed with 11 standard deep neural network models (DNNs) developed in computer science. We find that deep convolutional networks (CNNs) perform as well or better than the coding schemes and word recognition models, whereas transformer networks did less well. The success of CNNs is remarkable as their architectures were not developed to support word recognition (they were designed to perform well on object recognition), they classify pixel images of words (rather than artificial encodings of letter strings), and their training was highly simplified (not respecting many key aspects of human experience). In addition to these form priming effects, we find that the DNNs can account for visual similarity effects on priming that are beyond all current psychological models of priming. The findings add to the recent work of (Hannagan et al., 2021) and suggest that CNNs should be given more attention in psychology as models of human visual word recognition.
arxiv情報
著者 | Dong Yin,Valerio Biscione,Jeffrey Bowers |
発行日 | 2023-03-14 16:59:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google