Modelling the Effects of Hearing Loss on Neural Coding in the Auditory Midbrain with Variational Conditioning

要約

聴覚の基礎となる音から神経活動へのマッピングは、非常に非線形である。蝸牛におけるこのマッピングの最初の数段階は、手作業で構築された生物物理モデルや、最近では生物物理モデルによってシミュレートされたデータセットで学習されたDNNモデルによって、うまくモデル化されている。聴覚脳のモデリングは、中枢聴覚処理が複雑すぎて手作業でモデルを構築することが難しく、また、DNNモデルを直接訓練するためのデータセットが入手できなかったため、困難な課題となっていた。最近の研究では、聴覚中脳の大規模で高解像度の神経記録を利用して、正常な聴覚のDNNモデルを構築し、大きな成功を収めている。しかし、このモデルは聴覚処理がすべての脳で同じであると仮定しているため、難聴による様々な影響を捉えることができない。 我々は、健常動物と騒音にさらされた動物の聴覚中脳の神経活動の記録から、難聴の空間を直接エンコードすることを学習する新しい変分条件モデルを提案する。難聴のパラメータは動物ごとに6つだけであり、我々のモデルは健聴動物の神経反応における説明可能な分散の62%、難聴動物の68%を正確に予測する。このモデルは、学習した条件付けパラメータのみをベイズ最適化でフィッティングすることで、サンプル外の動物の現実的な活動をシミュレートするために使用できることを実証し、15-30回の反復で最適値の2%以内のクロスエントロピー損失を達成した。より多くの動物を訓練データに含めることで、未見の動物に対する性能がわずかに向上した。このモデルにより、将来、聴覚障害者の脳の正常な神経符号化を直接復元するように訓練されたパラメータ化された難聴補償モデルを開発することが可能になる。

要約(オリジナル)

The mapping from sound to neural activity that underlies hearing is highly non-linear. The first few stages of this mapping in the cochlea have been modelled successfully, with biophysical models built by hand and, more recently, with DNN models trained on datasets simulated by biophysical models. Modelling the auditory brain has been a challenge because central auditory processing is too complex for models to be built by hand, and datasets for training DNN models directly have not been available. Recent work has taken advantage of large-scale high resolution neural recordings from the auditory midbrain to build a DNN model of normal hearing with great success. But this model assumes that auditory processing is the same in all brains, and therefore it cannot capture the widely varying effects of hearing loss. We propose a novel variational-conditional model to learn to encode the space of hearing loss directly from recordings of neural activity in the auditory midbrain of healthy and noise exposed animals. With hearing loss parametrised by only 6 free parameters per animal, our model accurately predicts 62\% of the explainable variance in neural responses from normal hearing animals and 68% for hearing impaired animals, within a few percentage points of state of the art animal specific models. We demonstrate that the model can be used to simulate realistic activity from out of sample animals by fitting only the learned conditioning parameters with Bayesian optimisation, achieving crossentropy loss within 2% of the optimum in 15-30 iterations. Including more animals in the training data slightly improved the performance on unseen animals. This model will enable future development of parametrised hearing loss compensation models trained to directly restore normal neural coding in hearing impaired brains, which can be quickly fitted for a new user by human in the loop optimisation.

arxiv情報

著者 Lloyd Pellatt,Fotios Drakopoulos,Shievanie Sabesan,Nicholas A. Lesica
発行日 2025-06-03 17:12:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, q-bio.NC パーマリンク