要約
大規模言語モデル (LLM) は複雑な内部ダイナミクスを持っていますが、その幾何学を研究できる単語やフレーズの表現を誘導します。
人間の言語処理も不透明ですが、神経反応の測定により、聞いたり読んだりするときの活性化の(ノイズの多い)記録が得られ、そこから単語やフレーズの類似した表現を抽出できます。
ここでは、これらの表現によって引き起こされる幾何学形状が、脳のデコードという文脈でどの程度の類似点を共有しているかを研究します。
神経言語モデルが大きくなるほど、その表現が脳画像からの神経応答測定と構造的に類似することがわかりました。
コードは \url{https://github.com/coastalcph/brainlm} で入手できます。
要約(オリジナル)
Large language models (LLMs) have complicated internal dynamics, but induce representations of words and phrases whose geometry we can study. Human language processing is also opaque, but neural response measurements can provide (noisy) recordings of activation during listening or reading, from which we can extract similar representations of words and phrases. Here we study the extent to which the geometries induced by these representations, share similarities in the context of brain decoding. We find that the larger neural language models get, the more their representations are structurally similar to neural response measurements from brain imaging. Code is available at \url{https://github.com/coastalcph/brainlm}.
arxiv情報
著者 | Jiaang Li,Antonia Karamolegkou,Yova Kementchedjhieva,Mostafa Abdou,Sune Lehmann,Anders Søgaard |
発行日 | 2023-10-31 15:02:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google