Informations

Traitement des sons vocaux/non vocaux dans le cerveau humain


J'ai un type de question "" qui est venu en premier : la poule ou l'œuf ?" concernant le traitement et la compréhension des sons vocaux/non vocaux dans le cerveau humain. Je me demande si la parole et le traitement générique des sons non vocaux dans le cerveau humain sont en quelque sorte liés et si l'un des deux est utilisé comme une "base" mathématiquement parlant ou une référence pour comprendre l'autre.

La plupart des gens utilisent « Sa voix/Ça ressemble à… » pour décrire des sons/voix humaines. De plus, nous sommes capables de nous déconnecter et de bloquer toute activité acoustique non vocale qui nous entoure si nous ne sommes pas dans une conversation qui suggère que nous avons un sensibilité particulière pour entendre la parole (ou peut-être notre langue ou simplement nos noms si quelqu'un nous appelle).

J'ai lu un article qui dit que :

La connaissance de notre langue maternelle agit comme une sorte de "modèle" auditif qui influence la façon dont nous percevons les sons d'autres langues (les scientifiques appellent cela "l'écoute native").

Entendre d'autres langues différemment de ses locuteurs natifs est facile à comprendre, mais existe-t-il des recherches qui étudient la différence d'activité cérébrale lorsque la parole / d'autres sons sont entendus et s'il y a quelque chose de spécial à entendre la parole en particulier.


"Je me demande si la parole et le traitement générique du son non vocal dans le cerveau humain sont liés d'une manière ou d'une autre et si l'un des deux est utilisé comme "base" mathématiquement parlant ou comme référence pour comprendre l'autre."

Ils ont tous deux en commun l'énergie acoustique - dont le taux de changement est une information en soi. La base mathématique du choix pour comparer les uns aux autres, je pense, réside dans la manière dont chacun relie cette énergie à la réponse cérébrale - c'est-à-dire le modèle avancé de la relation stimulus-réponse.

Dans les études auditives, vous obtenez souvent la fonction de réponse (spectro)temporelle (S/TRF) pour estimer un « résumé » approximatif de cette relation. Notez que traditionnellement, cela se fait indépendamment, c'est-à-dire que l'énergie de la parole ou d'autres types de sons est étudiée séparément.

« existe-t-il des recherches qui étudient la différence d'activité cérébrale lorsque la parole / d'autres sons sont entendus »

Il existe une histoire de travail mettant en contraste l'encodage différentiel des classes de sons naturels et artificiels (consultez les travaux fondamentaux de Theunissen et collègues). À ces échelles (neurones ou groupes de neurones), les différences peuvent être assez marquées et se produire aussi bien chez les oiseaux que chez les mammifères.

Si vous êtes plus intéressé par ces règles de codage concernant "l'activité cérébrale" à plus grande échelle, il existe des études de potentiel de champ local (par ex. Gaucher et al. 2012 J Physiol-Paris) qui se rapportent également mathématiquement au S/TRF. Cependant, il s'agit très probablement d'études animales invasives. De plus, je ne me souviens pas s'ils contrastent les S/TRF de la parole par rapport à d'autres sons. Si vous voulez quelque chose de plus proche de la cognition humaine, vous voudrez probablement aussi regarder les études EEG ou MEG.

Il s'avère que trouver des similitudes peut être un peu plus difficile que de découvrir les différences, peut-être parce que les sons sont eux-mêmes si différents. La relation mathématique ne peut pas échapper à ce fait, et peut alors donner des modèles S/TRF distincts en retour.

Dans une pré-impression qui recherche des similitudes entre les types de stimulus, il est rapporté que certaines informations sur les changements d'énergie acoustique, en particulier les bords d'apparition temporels, peuvent être codées par le cortex auditif humain, que ce soit à partir de la parole, de la musique ou d'autre chose. , dans un format plus ou moins généralisable à travers les classes, au moins qualitativement. https://www.biorxiv.org/content/early/2017/07/27/168997


Comprendre comment nous parlons

Une nouvelle étude a révélé les modèles d'activité cérébrale qui produisent la parole humaine. Les résultats pourraient un jour conduire à de nouvelles approches pour le traitement des troubles de la parole.

La plupart d'entre nous réfléchissent à peine au processus de la parole, mais c'est l'une des actions les plus complexes que nous effectuons. Pour parler, votre cerveau a besoin de coordonner rapidement et précisément vos lèvres, votre mâchoire, votre langue et votre larynx (boîte vocale). Les troubles de la parole, tels que le bégaiement, affectent environ 5 % des enfants dès la première année. Les causes sous-jacentes de la plupart des troubles de la parole, cependant, ne sont pas bien comprises.

Des études antérieures ont montré qu'une partie du cerveau humain appelée cortex sensorimoteur ventral, ou vSMC, contrôle la parole. Grâce à la stimulation électrique, les chercheurs ont pu découvrir quelles zones générales du vSMC contrôlaient quelles parties du visage et de la bouche. Cependant, ce type de stimulation ne pouvait pas évoquer des énoncés significatifs. La découverte implique qu'au lieu d'être stockés dans des zones cérébrales discrètes, les sons de la parole pourraient provenir de modèles moteurs coordonnés impliquant plusieurs zones.

Une équipe dirigée par le Dr Edward Chang de l'Université de Californie à San Francisco, a entrepris de mieux comprendre le traitement de la parole dans le cerveau. Pour ce faire, ils ont enregistré l'activité neuronale des surfaces cérébrales de 3 personnes à qui des réseaux d'électrodes ont été implantés dans le cadre de leur préparation à la chirurgie cérébrale. Les enregistrements électriques ont été appariés avec des enregistrements de microphone pendant que les sujets lisaient les syllabes à haute voix. L'étude a été financée en partie par le National Institute of Neurological Disorders and Stroke (NINDS) du NIH et le National Institute on Deafness and Other Communication Disorders (NIDCD). Les résultats ont été mis en ligne le 20 février 2013, dans La nature.

Les chercheurs ont identifié environ 30 sites d'électrodes actives par sujet. L'analyse des enregistrements a révélé que différents sons étaient coordonnés dans des modèles d'activité dynamiques et complexes impliquant différentes régions du cerveau. Les schémas électriques dans le cerveau sont passés en quelques dizaines de millisecondes entre des représentations distinctes pour différentes consonnes et voyelles.

Les régions de l'activité cérébrale pendant la parole ont une structure hiérarchique et superposée organisée par des caractéristiques phonétiques, ont découvert les scientifiques. Par exemple, les consonnes qui nécessitent des emplacements de langue similaires ont des zones d'activité qui se chevauchent. Les modèles d'activité cérébrale diffèrent le plus entre les consonnes et les voyelles. Les chercheurs disent que cela peut expliquer pourquoi les lapsus de la langue impliquent généralement de remplacer des consonnes par des consonnes, ou des voyelles par des voyelles, mais très rarement de les mélanger les unes avec les autres.

"Même si nous utilisions l'anglais, nous avons constaté que les principaux schémas observés étaient ceux que les linguistes ont observés dans les langues du monde entier - suggérant peut-être des principes universels pour parler dans toutes les cultures", explique Chang.

Ce travail met en lumière une capacité humaine unique : le pouvoir d'une parole complexe. Les résultats pourraient aider à orienter les traitements potentiels des troubles de la parole et le développement d'interfaces cerveau-ordinateur pour la parole artificielle.


Comment le cerveau traite la langue des signes

La capacité de parler est l'une des caractéristiques essentielles qui distingue l'homme des autres animaux. Beaucoup de gens assimileraient probablement intuitivement parole et langage. Cependant, les recherches en sciences cognitives sur les langues des signes depuis les années 1960 brossent un tableau différent : aujourd'hui il est clair que les langues des signes sont des langues pleinement autonomes et ont une organisation complexe à plusieurs niveaux linguistiques tels que la grammaire et le sens. Des études antérieures sur le traitement de la langue des signes dans le cerveau humain avaient déjà trouvé des similitudes et également des différences entre les langues des signes et les langues parlées. Jusqu'à présent, cependant, il a été difficile d'obtenir une image cohérente de la façon dont les deux formes de langage sont traitées dans le cerveau.

Les chercheurs du MPI CBS voulaient maintenant savoir quelles régions du cerveau sont réellement impliquées dans le traitement de la langue des signes dans différentes études – et quelle est l'importance du chevauchement avec les régions du cerveau que les entendants utilisent pour le traitement du langage parlé. Dans une méta-étude récemment publiée dans la revue Cartographie du cerveau humain, ils ont regroupé les données d'expériences de traitement de la langue des signes menées dans le monde entier. "Une méta-étude nous donne l'opportunité d'avoir une image globale de la base neuronale de la langue des signes. Ainsi, pour la première fois, nous avons pu identifier statistiquement et de manière robuste les régions cérébrales impliquées dans le traitement de la langue des signes dans toutes les études. ", explique Emiliano Zaccarella, dernier auteur de l'article et chef de groupe au département de neuropsychologie du MPI CBS.

Les chercheurs ont découvert que la zone dite de Broca dans le cerveau frontal de l'hémisphère gauche est l'une des régions impliquées dans le traitement de la langue des signes dans presque toutes les études évaluées. Cette région du cerveau est connue depuis longtemps pour jouer un rôle central dans le langage parlé, où elle est utilisée pour la grammaire et le sens. Afin de mieux classer leurs résultats de la méta-étude actuelle, les scientifiques ont comparé leurs résultats avec une base de données contenant plusieurs milliers d'études avec des scanners cérébraux.

Les chercheurs basés à Leipzig ont en effet pu confirmer qu'il existe un chevauchement entre langue parlée et langue des signes dans la région de Broca. Ils ont également réussi à montrer le rôle joué par le cerveau frontal droit - la contrepartie de l'aire de Broca sur le côté gauche du cerveau. Cela est également apparu à plusieurs reprises dans de nombreuses études de langue des signes évaluées, car il traite des aspects non linguistiques tels que les informations spatiales ou sociales de son homologue. Cela signifie que les mouvements des mains, du visage et du corps - dont sont constitués les signes - sont en principe perçus de manière similaire par les personnes sourdes et entendantes. Cependant, ce n'est que dans le cas des personnes sourdes qu'elles activent en plus le réseau du langage dans l'hémisphère gauche du cerveau, y compris l'aire de Broca. Ils perçoivent donc les gestes comme des gestes à contenu linguistique -- au lieu de simples séquences de mouvements, comme ce serait le cas avec les entendants.

Les résultats démontrent que l'aire de Broca dans l'hémisphère gauche est un nœud central du réseau linguistique du cerveau humain. Selon que les gens utilisent le langage sous forme de signes, de sons ou d'écrits, il fonctionne avec d'autres réseaux. L'aire de Broca traite ainsi non seulement la langue parlée et écrite, comme on l'a connue jusqu'à présent, mais aussi des informations linguistiques abstraites dans n'importe quelle forme de langue en général. "Le cerveau est donc spécialisé dans le langage en soi, pas dans la parole", explique Patrick C. Trettenbrein, premier auteur de la publication et doctorant au MPI CBS. Dans une étude de suivi, l'équipe de recherche vise maintenant à savoir si les différentes parties de la zone de Broca sont également spécialisées dans le sens ou la grammaire de la langue des signes chez les personnes sourdes, similaires aux personnes entendantes.


Le cerveau est une chose merveilleuse. Il transforme les lettres, les chiffres et les images en données significatives qui régissent tous les aspects de notre vie. Voies neuronales des étincelles et de nouvelles idées rencontrent les anciennes pour former des structures schématiques complexes. Mais l'une des tâches les plus miraculeuses auxquelles il s'attaque est l'apprentissage. En tant que professionnels du eLearning, nous devons comprendre comment se déroule le traitement de l'information afin de créer des expériences eLearning efficaces.

Biologie du cerveau

Le cerveau se compose de nombreuses structures différentes et le cortex les enveloppe toutes. Le cortex est l'enveloppe la plus externe du cerveau qui prend en charge les capacités de réflexion complexes. Par exemple, la mémoire, le langage, la conscience spatiale et même les traits de personnalité. Les régions internes du cerveau contrôlent les aspects les plus primitifs de la nature humaine, tels que nos impulsions de base, nos peurs, nos émotions et notre subconscient. Le cerveau abrite également un "sous-cortex", qui se connecte directement au cortex. En tant que tel, il est capable de transmettre et de traiter des informations.

La mémoire humaine

Maintenant que nous avons brièvement exploré la constitution physique du cerveau, examinons l'une de ses fonctions les plus vitales : la mémoire. Après tout, la mémoire est cruciale pour le eLearning. Si les apprenants en ligne ne sont pas capables de se souvenir des informations, alors tout est inutile. Nous n'accordons généralement pas beaucoup d'attention à la mémoire, car c'est un processus automatique. Chaque événement, aussi petit soit-il, franchit les portes de notre mémoire sans que nous nous en rendions compte. Cependant, la plupart des événements ne sont que de passage et ne s'installent jamais de façon permanente. Il existe trois types de mémoire que les concepteurs pédagogiques doivent connaître :

1. Mémoire sensorielle

Lorsque nos sens sont déclenchés par un stimulus, notre cerveau stocke brièvement l'information. Par exemple, nous sentons le pain fraîchement sorti du four et ne pouvons nous souvenir de son odeur que quelques secondes avant qu'il ne disparaisse. Même si le pain n'est plus devant nous, notre esprit retient encore son impression pendant une courte période. Le cerveau a alors la possibilité de le traiter à travers les banques de mémoire ou de l'oublier. En eLearning, la mémoire sensorielle est déclenchée par une image visuellement convaincante, une musique de fond ou tout autre élément qui utilise les sens.

2. Mémoire à court terme

Un processus qui relève de la compétence de la mémoire de travail, qui stocke temporairement des informations lorsqu'il est déclenché par des stimuli. La mémoire à court terme ne peut contenir qu'un maximum de 7 éléments à la fois. Il a également une limite de temps, qui est généralement comprise entre 10 secondes et une minute.

3. Mémoire à long terme

Après avoir traversé la mémoire à court terme, les informations pertinentes sont déplacées vers le stockage à long terme. À ce stade, le cerveau est moins susceptible d'oublier des détails importants. Cependant, même la mémoire à long terme peut diminuer avec le temps si nous ne rafraîchissons pas nos connaissances.

Étapes de traitement de l'information

Il existe un certain nombre de Théories et modèles de traitement de l'information. Cependant, beaucoup suggèrent que le processus d'apprentissage comporte trois étapes clés :

Étape 1 : Saisie

Le cerveau est exposé à un stimuli, à quel point il analyse et évalue l'information. Par exemple, l'apprenant en ligne lit un passage et détermine s'il vaut la peine de s'en souvenir.

Étape 2 : Stockage

Notre cerveau stocke les informations pour une utilisation ultérieure. Il l'ajoute également à notre schéma mental et l'encode. Si l'information n'est pas renforcée, le cerveau peut simplement l'oublier avec le temps.

Étape 3 : sortie

Le cerveau décide ce qu'il va faire avec l'information et comment il réagira au stimulus. Par exemple, après avoir lu le passage, la personne utilise les informations qu'elle a apprises pour surmonter un défi.

3 astuces pour améliorer l'assimilation et l'absorption en eLearning

1. Rendez-le digne d'attention

Notre cerveau ne peut pas se souvenir de chaque détail. Si c'était le cas, nous serions surchargés de tellement d'informations que nous ne serions pas en mesure de fonctionner. C'est pourquoi vous devez faire en sorte que le cerveau s'en aperçoive. Les images, les faits et les graphiques qui attirent l'attention sont des stimuli puissants. Ils envoient un signal au cerveau que cet élément particulier mérite d'être rappelé. Il y a cependant une mise en garde à ce sujet. Seuls les éléments les plus importants de votre cours eLearning doivent ressortir. Par exemple, une police en gras rouge vif pour attirer l'attention sur un conseil crucial. Sinon, vous courez le risque de surcharge cognitive.

2. Renforcer les concepts clés

La mémoire a besoin de rappels de temps en temps, ou bien elle laisse passer des informations entre les mailles du filet. L'apprentissage en ligne espacé vous donne la possibilité de vous rafraîchir la mémoire sur une période de temps. Par exemple, les employés regardent un didacticiel de tâches en ligne le premier jour du cours eLearning. Plus tard, ils participent à un scénario de branchement qui couvre le même processus, suivi d'un exercice de synthèse. Le cerveau a la capacité d'explorer la même tâche sous différents formats, ce qui évite l'ennui et renforce l'information.

3. Utiliser le rappel actif

Le rappel actif implique la récupération et l'application d'informations. Par exemple, les apprenants en ligne doivent mettre les informations dans leurs propres mots ou les utiliser pour effectuer une simulation. Dans la plupart des cas, ils doivent manipuler les données et les appliquer hors contexte. Par exemple, ils doivent utiliser une compétence dans une variété de situations pour résoudre des défis du monde réel. Encouragez les apprenants en ligne à réfléchir sur le sujet, puis déterminez comment ils l'utiliseront en dehors de l'environnement d'apprentissage. Le contenu généré par l'apprenant, les résumés et les exercices interactifs sont des techniques de rappel actif très efficaces.

Le cerveau traite l'information à une vitesse incroyable. Mais ce n'est pas une machine invincible qui absorbe toutes les connaissances qui se présentent. Pour cette raison, les concepteurs pédagogiques doivent tenir compte des limites mentales de l'esprit humain et ensuite travailler dans ces limites. Cela implique généralement du contenu de petite taille, des illustrations visuelles et des exercices interactifs en ligne.

Vous souhaitez en savoir plus sur le cerveau et ses comportements d'apprentissage ? Lire l'article Top 10 des livres de psychologie que les professionnels du eLearning devraient lire pour découvrir les meilleurs livres de psychologie que tous les professionnels du eLearning devraient avoir sur leurs étagères.


Les scanners cérébraux montrent des similitudes frappantes entre les chiens et les humains

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

Golden retrievers et border collies posent devant l'appareil d'IRM. Image : Borbala Ferenczy

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

Une nouvelle étude d'imagerie cérébrale du meilleur ami de l'humanité a trouvé une similitude frappante dans la façon dont les humains et les chiens - et peut-être de nombreux autres mammifères - traitent la voix et les émotions.

Comme les humains, les chiens semblent posséder des systèmes cérébraux dédiés à la compréhension des sons vocaux et sensibles à leur contenu émotionnel. Ces systèmes n'ont pas été décrits auparavant chez les chiens ou toute autre espèce non primate, et les nouvelles découvertes offrent un aperçu neurobiologique intrigant de la richesse de notre coin particulier du règne animal.

"Ce qui nous rend vraiment excités maintenant, c'est que nous avons découvert ces zones vocales dans le cerveau du chien", a déclaré l'éthologue comparatif Attila Andics de l'université hongroise Eötvös Loránd, auteur principal du 20 février. Biologie actuelle papier décrivant les expériences. "Ce n'est pas seulement les chiens et les humains. Nous partageons probablement cette fonction avec de nombreux autres mammifères."

Menée dans le laboratoire de son collègue éthologue Eötvös Loránd Ádám Miklósi, l'un des plus éminents chercheurs au monde sur l'intelligence et le comportement canins, l'étude a été inspirée par une découverte au tournant du millénaire des régions du cerveau humain à l'écoute des voix humaines. . Des régions similaires ont depuis été décrites chez les singes, qui partageaient pour la dernière fois un ancêtre commun avec les humains il y a 30 millions d'années.

Les humains et les chiens ont partagé pour la dernière fois un ancêtre commun il y a 100 millions d'années. Si une région adaptée à la voix pouvait également être trouvée chez les chiens, le trait serait vraiment profondément ancré dans notre biologie commune.

Pour étudier la possibilité, Andics et ses collègues ont entraîné six golden retrievers et cinq border collies à rester immobiles à l'intérieur d'un scanner afin que les chercheurs puissent collecter des IRMf de leur cerveau. Ces scans mesurent les changements dans le flux sanguin, qui est largement considéré comme un indicateur de l'activité neuronale.

À l'intérieur du scanner, chacun des 11 chiens et un groupe de comparaison de 22 hommes et femmes ont écouté près de 200 enregistrements de sons de chiens et d'humains : gémir et pleurer, rire et aboyer. Comme prévu, les zones de traitement de la voix humaine ont répondu le plus aux voix humaines. Chez les chiens, les régions cérébrales correspondantes ont répondu aux sons des chiens. Chez les deux espèces, l'activité dans ces régions a changé de manière similaire en réponse au ton émotionnel d'une vocalisation - par exemple, pleurnicher contre aboiements ludiques chez les chiens, ou pleurer contre rire voix humaines.

Pour les personnes qui connaissent les chiens comme compagnons et amis, les résultats peuvent sembler prévisibles. Mais le voir jouer dans le cerveau fait comprendre le point.

"Ce n'est pas une découverte surprenante, mais c'est une découverte importante", a déclaré l'éthologue cognitif et auteur Marc Bekoff, qui n'a pas participé à l'étude. Le traitement des sons vocaux et des émotions « est fondamental pour qui ils sont ».

Les réponses n'étaient pas identiques entre les espèces. Chez les chiens, les zones de traitement vocal ont également répondu aux sons non vocaux, mais chez les humains, elles ont été déclenchées par la voix seule – faisant peut-être allusion à la trajectoire intensément sociale de l'évolution humaine, a déclaré Andics. Les zones ont peut-être évolué pour être encore plus finement réglées pour les sons vocaux chez les humains, a-t-il spéculé. Les chiens de l'étude étaient également légèrement mieux adaptés aux voix humaines que les gens ne l'étaient à celles des chiens.

Cela dit, ce que les deux espèces partagent semble l'emporter sur les différences et soulève des questions fascinantes. L'intelligence et la conscience sociale des chiens sont parfois attribuées aux quelque 15 000 années pendant lesquelles ils — Canis lupus familiaris, pour être précis - ont passé en compagnie d'humains, étant évolutivement récompensés pour leur sensibilité sociale.

Les régions marquées dans la nouvelle étude, cependant, ont des racines évolutives profondes. Bien que les chiens aient pu les développer indépendamment des humains, il est beaucoup plus probable qu'ils étaient présents dans cet ancêtre commun d'il y a longtemps, a déclaré Andics. Ils pourraient même être retracés plus loin dans notre héritage évolutif.

Anatomie d'un cerveau humain (ci-dessus) et d'un chien, avec des zones liées au traitement vocal décrites.

Image : Andics et al./Biologie actuelle

Le neuroscientifique Jaak Panksepp de l'Université d'État de Washington, qui étudie la neurobiologie des émotions chez les animaux, a déclaré que les résultats "étaient à attendre de ce que nous savons depuis longtemps sur l'organisation évolutive globale du cerveau des mammifères". Panksepp, qui n'était pas impliqué dans l'étude, croit que le traitement du son sophistiqué et la sensibilité émotionnelle sont un trait fondamental des mammifères.

L'élevage par les humains a sans aucun doute affiné les systèmes de traitement vocal des chiens, a déclaré Bekoff, mais ils étaient probablement assez sophistiqués au moment où les chemins de notre espèce ont convergé il y a 15 000 ans. Certes, les loups, les coyotes et les autres membres non domestiqués du genre canin sont assez vocaux et sensibles aux émotions, c'est peut-être pourquoi les humains et les chiens forment une si bonne équipe.


Des scientifiques découvrent des cellules cérébrales qui rivalisent pour maintenir ou supprimer des souvenirs traumatiques

Des groupes distincts de neurones situés dans l'amygdale modulent les états de peur élevés et faibles via des connexions à d'autres régions du cerveau. Kenta M. Hagihara, M.D., Friedrich Miescher Institute for Biomedical Research, Bâle, Suisse (utilisé avec autorisation)

Selon une nouvelle étude menée sur des souris, deux groupes de cellules cérébrales rivalisent pour favoriser soit la persistance, soit la disparition des souvenirs traumatiques. Les résultats pourraient fournir des informations importantes sur les conditions humaines telles que le trouble de stress post-traumatique (TSPT), les troubles anxieux et les problèmes associés tels que le trouble de la consommation d'alcool (AUD) qui peuvent découler de la persistance de souvenirs traumatiques. La nouvelle recherche, dirigée par des scientifiques de l'Institut national sur l'abus d'alcool et l'alcoolisme (NIAAA), qui fait partie des Instituts nationaux de la santé, et leurs collègues en Suisse, est rapportée dans la revue Nature.

« Au fil du temps, la détresse d'avoir subi un traumatisme s'atténuera pour certaines personnes, car les souvenirs du traumatisme cessent de provoquer une réaction effrayante », explique le directeur de la NIAAA, le Dr George F. Koob. «Pour d'autres personnes qui ont subi un traumatisme, cependant, les souvenirs effrayants persistent et peuvent nuire à leur capacité à s'engager dans des activités quotidiennes. Ces souvenirs effrayants peuvent perdurer même si une personne peut à plusieurs reprises rencontrer des indices associés à une expérience traumatisante sans subir de préjudice. L'étude actuelle met en lumière les circuits neuronaux spécifiques qui peuvent sous-tendre la persistance et l'extinction des souvenirs effrayants associés aux traumatismes.

Des scientifiques dirigés par Andrew Holmes, Ph.D., chef du laboratoire de neurosciences comportementales et génomiques du NIAAA, ont examiné des groupes de neurones, appelés cellules intercalées ou ITC, qui sont étroitement entassés autour de l'amygdale de la souris. Située au plus profond des lobes temporaux du cerveau des mammifères, l'amygdale est bien connue comme une plaque tournante pour le traitement des émotions. C'est donc un acteur probable dans les systèmes cérébraux qui sous-tendent la formation de souvenirs effrayants associés à certains signaux environnementaux et l'extinction réussie de ces souvenirs lorsque les mêmes signaux ne prédisent plus tard aucun mal.

Dans une série d'études comportementales d'imagerie cérébrale et de neurophysiologie in vivo, des scientifiques du NIAAA ont collaboré avec des chercheurs aux États-Unis, en Suisse et en Allemagne pour évaluer les rôles potentiels des ITC alors que les souris apprenaient à associer un signal (par exemple, un son) à un pied. choc (un événement provoquant la peur), puis a éteint l'association en n'associant plus le signal à un choc au pied.

Les chercheurs ont découvert que deux groupes ITC distincts favorisent soit une réaction de peur, soit l'extinction de l'association signal/choc du pied. Ils ont en outre révélé que les groupes étaient en compétition les uns avec les autres, via un processus connu sous le nom d'inhibition synaptique mutuelle, pour déterminer la force relative de chaque mémoire et, par conséquent, le niveau de comportement défensif montré par l'animal. L'étude a également montré que les clusters ITC ont des connexions à longue distance avec des régions connues de régulation de la peur dans le mésencéphale et le cortex préfrontal.

« La persistance de souvenirs troublants d'un événement traumatisant est l'une des caractéristiques du TSPT et de certains troubles anxieux », explique le Dr Holmes. "Nos résultats identifient un circuit neuronal au sein de l'amygdale qui orchestre l'activité à travers un large réseau cérébral pour exercer une influence puissante sur la capacité de basculer entre des états de peur élevés et faibles. Cette découverte soulève maintenant des questions intéressantes quant à savoir si un dysfonctionnement de ce système cérébral pourrait contribuer aux différences individuelles marquées de risque de troubles psychiatriques liés à un traumatisme.


Comment le son a façonné l'évolution de votre cerveau

Des insectes aux éléphants en passant par les humains, nous, les animaux, utilisons tous le son pour fonctionner et converser dans des groupes sociaux, en particulier lorsque l'environnement est sombre, sous l'eau ou fortement boisé.

"Nous pensons que nous savons vraiment ce qui se passe là-bas", déclare Laurel Symes, biologiste du Collège Dartmouth, qui étudie les grillons. Mais il y a une cacophonie tout autour de nous, dit-elle, c'est plein d'informations encore à déchiffrer. "Nous obtenons cette petite tranche de tout le son du monde."

Coups - Actualités Santé

Écoute attentive : comment le son révèle l'invisible

Récemment, les scientifiques ont poussé le domaine de la bioacoustique encore plus loin, pour enregistrer des environnements entiers, pas seulement les animaux qui y vivent. Certains appellent cela "l'écologie acoustique" - écouter la pluie, les ruisseaux, le vent à travers les arbres. Une forêt de feuillus sonne différemment d'une forêt de pins, par exemple, et ce paysage sonore change selon les saisons.

Neuroscientifique Seth Horowitz, auteur du livre Le sens universel : comment l'ouïe façonne l'esprit, s'intéresse particulièrement à la manière dont tous ces sons, qui sont essentiellement des vibrations, ont façonné l'évolution du cerveau humain.

"La sensibilité aux vibrations se retrouve même dans les formes de vie les plus primitives", dit Horowitz - même les bactéries. "C'est tellement essentiel pour votre environnement, de savoir que quelque chose d'autre bouge près de vous, que ce soit un prédateur ou de la nourriture. Partout où vous allez, il y a des vibrations et cela vous dit quelque chose."

Écoute attentive : décoder la nature par le son

Pour décoder la conversation des éléphants, vous devez sentir le grondement de la jungle

Et l'ouïe est spéciale parmi les sens, dit Horowitz. Le son peut voyager loin. Il se propagera à travers n'importe quoi - le sol, l'eau. Il fonctionne la nuit, tourne dans les virages. "Les sons vous donnent une entrée sensorielle qui n'est pas limitée par le champ de vision."

Étant donné que le son reflète bien ce qui se passe autour de nous, le cerveau des vertébrés, y compris les humains, a évolué pour y être extrêmement sensible.

"Vous entendez de 20 à 100 fois plus vite que vous ne voyez", dit Horowitz, "de sorte que tout ce que vous percevez avec vos oreilles colore toutes les autres perceptions que vous avez et chaque pensée consciente que vous avez." Le son, dit-il, « entre si vite qu'il modifie toutes les autres entrées et prépare le terrain pour cela ».

Il peut le faire parce que les circuits auditifs du cerveau sont moins largement distribués que le système visuel. Les circuits pour la vision "rendent la carte du métro de New York simple", explique Horowitz, alors que les signaux sonores n'ont pas autant de chemin à parcourir dans le cerveau.

Et le son est rapidement acheminé vers les parties du cerveau qui traitent des fonctions très basiques – les « zones précorticales », dit Horowitz – qui ne font pas partie du câblage de la pensée consciente. Ce sont des lieux où les émotions sont générées.

"Nous sommes des créatures émotionnelles", dit Horowitz, "et les émotions sont des" réponses rapides "évolutives - des choses auxquelles vous n'avez pas à penser."

Cette rapidité paie des dividendes dans le département de survie : « Vous entendez un son fort ? il dit. "Préparez-vous à le fuir." Les émotions sont des systèmes de livraison rapide dans le cerveau, et le son entraîne les émotions.

Alors le son vous frappe dans les tripes. Mais le son est également riche en motifs porteurs d'informations.

"Le cerveau est vraiment une boîte à rythmes humide et bâclée", dit Horowitz. « Il cherche désespérément des rythmes. Non seulement le rythme, mais aussi les motifs de hauteur, qui ont une régularité mathématique qui capte l'attention du cerveau.

Le son d'une voix familière, par exemple, a son propre ensemble de rythmes et de hauteurs. Ainsi font des sons particuliers dans la nature : oiseaux, insectes, pluie. Le peuple Bayaka, qui vit dans la forêt tropicale d'Afrique centrale, incorpore la syncope de la pluie qui tombe dans sa musique.


Comment nous récupérons nos connaissances sur le monde

Pour comprendre le monde, nous organisons des objets, des personnes et des événements individuels en différentes catégories ou concepts. Des concepts tels que « le téléphone » consistent principalement en des caractéristiques visibles, c'est-à-dire la forme et la couleur, et des sons, tels que la sonnerie. En plus, il y a des actions, c'est-à-dire comment on utilise un téléphone.

Cependant, le concept de téléphone ne surgit pas seulement dans le cerveau lorsque nous avons un téléphone devant nous. Il apparaît également lorsque le terme est simplement mentionné. Si nous lisons le mot « téléphone », notre cerveau évoque également le concept de téléphone. Les mêmes régions du cerveau sont activées qui seraient activées si nous voyions, entendions ou utilisions un téléphone. Le cerveau semble ainsi simuler les caractéristiques d'un téléphone lorsque son nom seul est mentionné.

Jusqu'à présent, cependant, il n'était pas clair, selon la situation, si le concept entier d'un téléphone est appelé ou uniquement des fonctionnalités individuelles telles que des sons ou des actions et si seules les zones du cerveau qui traitent la fonctionnalité respective deviennent actives. Alors, quand on pense à un téléphone, pense-t-on toujours à toutes ses fonctionnalités ou seulement à la partie dont on a besoin sur le moment ? Retrouvons-nous nos connaissances solides lorsqu'un téléphone sonne, mais nos connaissances d'action lorsque nous l'utilisons ?

Des chercheurs de l'Institut Max Planck pour les sciences cognitives et cérébrales humaines à Leipzig ont maintenant trouvé la réponse : cela dépend de la situation. Si, par exemple, les participants à l'étude pensaient aux sons associés au mot « téléphone », les zones auditives correspondantes dans le cortex cérébral étaient activées, qui sont également activées lors de l'audition réelle. En pensant à l'utilisation d'un téléphone, les zones somatomotrices qui sous-tendent les mouvements impliqués sont entrées en action.

En plus de ces zones sensorielles, dites spécifiques à une modalité, il a été constaté qu'il existe des zones qui traitent à la fois les sons et les actions. L'une de ces zones dites multimodales est le lobule pariétal inférieur gauche (IPL). Il est devenu actif lorsque les deux fonctionnalités ont été demandées.

The researchers also found out that, in addition to characteristics based on sensory impressions and actions, there must be other criteria by which we understand and classify terms. This became apparent when the participants were only asked to distinguish between real and invented words. Here, a region that was not active for actions or sounds kicked in: the so-called anterior temporal lobe (ATL). The ATL therefore seems to process concepts abstractly or "amodally," completely detached from sensory impressions.

From these findings, the scientists finally developed a hierarchical model to reflect how conceptual knowledge is represented in the human brain. According to this model, information is passed on from one hierarchical level to the next and at the same time becomes more abstract with each step. On the lowest level, therefore, are the modality-specific areas that process individual sensory impressions or actions. These transmit their information to the multimodal regions such as the IPL, which process several linked perceptions simultaneously, such as sounds and actions. The amodal ATL, which represents features detached from sensory impressions, operates at the highest level. The more abstract a feature, the higher the level at which it is processed and the further it is removed from actual sensory impressions.

"We thus show that our concepts of things, people, and events are composed, on the one hand, of the sensory impressions and actions associated with them and, on the other hand, of abstract symbol-like features," explains Philipp Kuhnke, lead author of the study, which was published in the journal Cortex cérébral. "Which features are activated depends strongly on the respective situation or task" added Kuhnke.

In a follow-up study in Cortex cérébral, the researchers also found that modality-specific and multimodal regions work together in a situation-dependent manner when we retrieve conceptual features. The multimodal IPL interacted with auditory areas when retrieving sounds, and with somatomotor areas when retrieving actions. This showed that the interaction between modality-specific and multimodal regions determined the behavior of the study participants. The more these regions worked together, the more strongly the participants associated words with actions and sounds.

The scientists investigated these correlations with the help of various word tasks that the participants solved while lying in a functional magnetic resonance imaging (fMRI) scanner. Here, they had to decide whether they strongly associated the named object with sounds or actions. The researchers showed them words from four categories: 1) objects associated with sounds and actions, such as "guitar," 2) objects associated with sounds but not with actions, such as "propeller," 3) objects not associated with sounds but with actions, such as "napkin," and 4) objects associated neither with sounds nor with actions, such as "satellite."


Dogs' brain scans reveal vocal responses

By placing dogs in an MRI scanner, researchers from Hungary found that the canine brain reacts to voices in the same way that the human brain does.

Emotionally charged sounds, such as crying or laughter, also prompted similar responses, perhaps explaining why dogs are attuned to human emotions.

Lead author Attila Andics, from the Comparative Ethology Research Group at the Hungarian Academy of Sciences, said: "We think dogs and humans have a very similar mechanism to process emotional information."

Eleven pet dogs took part in the study training them took some time.

"We used positive reinforcement strategies - lots of praise," said Dr Andics.

"There were 12 sessions of preparatory training, then seven sessions in the scanner room, then these dogs were able to lie motionless for as long as eight minutes. Once they were trained, they were so happy, I wouldn't have believed it if I didn't see it."

For comparison, the team looked at the brains of 22 human volunteers in the same MRI scanners.

The scientists played the people and pooches 200 different sounds, ranging from environmental noises, such as car sounds and whistles, to human sounds (but not words) and dog vocalisations.

The researchers found that a similar region - the temporal pole, which is the most anterior part of the temporal lobe - was activated when both the animals and people heard human voices.

"We do know there are voice areas in humans, areas that respond more strongly to human sounds that any other types of sounds," Dr Andics explained.

"The location (of the activity) in the dog brain is very similar to where we found it in the human brain. The fact that we found these areas exist at all in the dog brain at all is a surprise - it is the first time we have seen this in a non-primate."

Emotional sounds, such as crying and laughter also had a similar pattern of activity, with an area near the primary auditory cortex lighting up in dogs and humans.

Likewise, emotionally charged dog vocalisations - such as whimpering or angry barking - also caused a similar reaction in all volunteers,

Dr Andics said: "We know very well that dogs are very good at tuning into the feelings of their owners, and we know a good dog owner can detect emotional changes in his dog - but we now begin to understand why this can be."

However, while the dogs responded to the human voice, their reactions were far stronger when it came to canine sounds.

They also seemed less able to distinguish between environmental sounds and vocal noises compared with humans.

About half of the whole auditory cortex lit up in dogs when listening to these noises, compared with 3% of the same area in humans.

Commenting on the research, Prof Sophie Scott, from the Institute of Cognitive Neuroscience at University College London, said: "Finding something like this in a primate brain isn't too surprising - but it is quite something to demonstrate it in dogs.

"Dogs are a very interesting animal to look at - we have selected for a lot of traits in dogs that have made them very amenable to humans. Some studies have show they understand a lot of words and they understand intentionality - pointing."

But she added: "It would be interesting to see the animal's response to words rather than just sounds. When we cry and laugh, they are much more like animal calls and this might be causing this response.

"A step further would be if they had gone in and shown sensitivity to words in the language their owners speech."


Pathophysiology of Migraine: A Disorder of Sensory Processing

Plaguing humans for more than two millennia, manifest on every continent studied, and with more than one billion patients having an attack in any year, migraine stands as the sixth most common cause of disability on the planet. The pathophysiology of migraine has emerged from a historical consideration of the "humors" through mid-20th century distraction of the now defunct Vascular Theory to a clear place as a neurological disorder. It could be said there are three questions: why, how, and when? Why: migraine is largely accepted to be an inherited tendency for the brain to lose control of its inputs. How: the now classical trigeminal durovascular afferent pathway has been explored in laboratory and clinic interrogated with immunohistochemistry to functional brain imaging to offer a roadmap of the attack. When: migraine attacks emerge due to a disorder of brain sensory processing that itself likely cycles, influenced by genetics and the environment. In the first, premonitory, phase that precedes headache, brain stem and diencephalic systems modulating afferent signals, light-photophobia or sound-phonophobia, begin to dysfunction and eventually to evolve to the pain phase and with time the resolution or postdromal phase. Understanding the biology of migraine through careful bench-based research has led to major classes of therapeutics being identified: triptans, serotonin 5-HT1B/1D receptor agonists gepants, calcitonin gene-related peptide (CGRP) receptor antagonists ditans, 5-HT1F receptor agonists, CGRP mechanisms monoclonal antibodies and glurants, mGlu5 modulators with the promise of more to come. Investment in understanding migraine has been very successful and leaves us at a new dawn, able to transform its impact on a global scale, as well as understand fundamental aspects of human biology.

Copyright © 2017 the American Physiological Society.

Les figures

The migrainous brain interictally. Imaging…

The migrainous brain interictally. Imaging studies in the migraineurs' brain interictally demonstrate there…

The migrainous migraine during the…

The migrainous migraine during the premonitory phase. In nitroglycerin-induced migraine attacks, H 2…

The migrainous brain during migraine…

The migrainous brain during migraine head pain. Many studies have demonstrated that migraine…

Anatomy of the trigeminovascular system–ascending…

Anatomy of the trigeminovascular system–ascending projections. The trigeminal ganglion (TG) gives rise to…

Modulation of trigeminovascular nociceptive transmission–descending…

Modulation of trigeminovascular nociceptive transmission–descending projections. The trigeminocervical complex (TCC) is subject to…

Anatomy of the trigemino-autonomic pathway…

Anatomy of the trigemino-autonomic pathway believed to contribute to head pain and cranial…

Proposed mechanism of descending modulation…

Proposed mechanism of descending modulation of trigeminovascular nociceptive transmission through brain stem nuclei,…

Proposed mechanisms for the neural…

Proposed mechanisms for the neural basis of photophobia in migraine. UNE : it…

Anatomy and pharmacology of the…

Anatomy and pharmacology of the hypothalamic nuclei and brain stem nuclei involved in…


Voir la vidéo: Traitement de sons et conception sonore (Décembre 2021).