top of page
RECONNECT_FR_RVB_NON_ENDOSSE.jpg
RECONNECT_FR_RVB_ENDOSSE_edited.png

Comment le cerveau encode les sons depuis l’oreille

  • heloiseherve2
  • il y a 20 heures
  • 3 min de lecture

L’équipe Plasticité des Circuit Auditifs Centraux de l’Institut reConnect à l’Institut de l’Audition (Institut Pasteur/Inserm/CNRS) révèle aujourd’hui comment le cerveau utilise plusieurs langages neuronaux pour préserver la fiabilité de l’information sonore à chaque étape de la voie auditive.


ree

Le décodage des sons à partir de l’activité cérébrale chez la souris révèle une évolution majeure dans la façon dont le cerveau représente les sons : le codage dans les premiers relais auditifs juste après l’oreille utilise les instants où les neurones s’activent, mais ce codage est très redondant entre les neurones individuels. A contrario, le cortex auditif adopte un codage plus collaboratif, basé sur l’activation globale d’un circuit plutôt que l’information temporelle portée par chaque neurone. Cette transformation illustre une stratégie robuste du cerveau pour maintenir une perception cohérente des sons complexes tout au long de la voie auditive.


Dans un article paru dans Advanced Science en décembre 2025, Boris Gourévitch, chercheur de l’Institut reConnect et son équipe explique la manière dont le cerveau recode progressivement l’information auditive depuis l’oreille jusqu’au premier relais auditif du cortex.


Une approche méthodologie grande échelle et en temps réel 

L’information sonore est convertie par l’organe sensoriel de la cochée, dans l’oreille interne, en un message électrique porté par des neurones et donc intelligible par le cerveau. « Nous avons voulu comprendre comment, malgré les écarts ou les interférences de l’environnement, puisque nous n’entendons jamais véritablement deux fois un même son, notre perceptionelle, reste si stable. Cela nous a conduit à étudier comment le codage des neurones à chaque relais entre l’oreille et le cerveau pouvait lui aussi rester stable aux perturbations des sons », explique Boris Gourévitch, principal auteur de l’étude. Pour cela, l’équipe a suivi en temps réel l’activité de neurones auditifs du cerveau de la souris éveillée, aboutissant à l’enregistrement et la simulation grande échelle de plus de 4000 neurones dans tout le système auditif. Pour parvenir à analyser cette gigantesque base de données, l’équipe a conçu un nouvel algorithme simple et universel, le Neural Coding Reliability (NCR), qui décode l’information auditive contenue dans chacun des neurones ou ensembles de neurones, sans recourir au machine learning.


Grâce à cet algorithme, il devient possible de reconstruire facilement un son en observant la réponse d'un ensemble de neurones, et d’analyser comment cette capacité de codage s’affine le long des différents étages du système auditif.


Un langage neuronal qui s’adapte et devient collaboratif 

Les travaux de l’équipe ont ainsi révélé que dans le nerf auditif, juste derrière l’oreille, les neurones transmettent l’information avec une grande précision temporelle mais ils s’activent tous de façon similaire. Cette redondance rend le codage robuste à de petites variations sonores. 


Source : Gao, S., Gong, Y., Xu, C., & Chen, Z. (2024). The bidirectional role of music effect in epilepsy : Friend or foe? Epilepsia Open, 9(6), 2112‑2127. https://doi.org/10.1002/epi4.13064
Source : Gao, S., Gong, Y., Xu, C., & Chen, Z. (2024). The bidirectional role of music effect in epilepsy : Friend or foe? Epilepsia Open, 9(6), 2112‑2127. https://doi.org/10.1002/epi4.13064

À mesure que le signal progresse dans le cerveau vers le colliculus inférieur, le thalamus, puis le cortex auditif, le codage évolue vers une stratégie basée sur le nombre total d’impulsions des neurones, aussi appelé taux de décharge, et sur l’activation de circuits de neurones plutôt que de neurones individuels. Ce nouveau codage neural est dit synergétique, car il est fondé sur la coopération de plusieurs neurones compensant la moindre précision individuelle de chacun des neurones.

L’équipe a également montré que l’absence d’activité, le silence neuronal, porte une information significative dans ces circuits neuronaux, révélant une dimension jusqu’ici méconnue du codage auditif.


Des perspectives pour l’audition et la compréhension des sens de façon générale

Ces résultats font progresser notre compréhension des circuits de perception sensorielle à l’échelle de l’individu. Les technologies pour mieux diagnostiquer et corriger la perte auditive pourraient s’inspirer à terme de ce recodage neuronal progressif.

Au-delà de l’audition, la stratégie d’étude des réponses neuronales aux perturbations sonores est généralisable à la perception de sons complexes comme la parole et même à d’autres modalités sensorielles, ouvrant la voie à de nouveaux algorithmes de décodage applicables à l’EEG. La livraison d’algorithmes simples, performants, moins sensibles au bruit et uniquement basés sur les seules activités neurales d’un sujet pourraient aussi inspirer les futures neuroprothèses auditives et la reconnaissance vocale.


Ce travail aux multiples applications a été rendu possible grâce aux ressources computationnelles du cluster Pasteur et grâce au soutien de l’Agence Nationale de la Recherche, la Fondation Pour l’Audition et l’Institut Pasteur.

Source

A. Buck, T. Dupont, R. Andrews Cavanagh, et al. “Neural Response Reliability as a Marker of the Transition of Neural Codes along Auditory Pathways” Adv. Sci. (10 December 2025): e08777. https://doi.org/10.1002/advs.202508777


 

 

 
 
bottom of page