Quand parler devient une routine
Prononcer une syllabe demande un contrôle moteur d’une
grande finesse. Après des années d’entraînement, cette tâche devient
un automatisme et ne requiert plus autant de ressources cognitives.
Un projet du PRN « Evolving Language » se penche sur cette transition.
On estime que pour maîtriser de manière « experte » un geste moteur, il faut plusieurs milliers d’heures de pratique. Il peut s’agir du mouvement sûr d’un peintre ou d’un pianiste mais aussi un de ceux – plus banals mais non moins exigeants en précision – que l’on utilise pour parler. Les spécialistes ont calculé que durant les dix premières années de sa vie, si on admet qu’il passe l’équivalent d’une heure par jour à causer sans arrêt, un enfant articule en tout environ un million de syllabes. Ce qui correspond à prononcer 2000 fois chacune des 500 syllabes les plus communément utilisées dans la langue française. Conclusion : comme il s’agit d’une valeur moyenne, il est probable qu’il faille plus de dix ans pour que l’opération consistant à émettre les séquences de sons du langage devienne ce qu’on appelle une « routine » motrice et cognitive.
Telle est en tout cas l’hypothèse de travail d’un des deux projets de recherche du Pôle de recherche national Evolving Language que codirige Marina Laganaro, professeure associée à la Section de psychologie (Faculté de psychologie et des sciences de l’éducation).
« Nous aimerions étudier le processus cognitif qui est à l’œuvre lorsque nous parlons, explique-t-elle. Je ne m’intéresse donc pas aux aspects linguistiques du phénomène mais seulement à la planification et à l’exécution des opérations physiques nécessaires à la production de la parole, c’est-à-dire à ce qu’on appelle les gestes de parole. Plus particulièrement, on se demande à partir de quel moment dans l’évolution et dans le développement humain, ces gestes deviennent automatiques. Autrement dit, quand résultent-ils de l’activation de routines stockées dans le cortex plutôt que d’actions motrices élaborées en direct ? »
Du muscle au neurone
Longtemps, les spécialistes du langage ont pensé que l’être humain était, à l’exception de certains oiseaux et quelques exemples chez les mammifères qui se comptent sur les doigts d’une main, la seule espèce capable d’articuler distinctement des séquences de sons intelligibles. En particulier, il leur semblait que les grands singes, nos plus proches cousins du point de vue évolutif, étaient dépourvus de cette faculté.
En réalité, des recherches plus récentes ont montré que ces primates disposent d’une mécanique articulatoire suffisante pour produire les sons que nous utilisons pour parler – ou du moins une partie d’entre eux. Ce qui leur manque, par contre, c’est le contrôle cognitif assez fin des gestes moteurs de la parole. C’est ainsi que le problème s’est déplacé de l’anatomie des articulateurs (mâchoire, langue, larynx, appareil respiratoire…) vers le cerveau.
« Nous n’allons pas investiguer le singe, précise tout de suite Marina Laganaro qui collabore sur ce projet avec Volker Dellwo, professeur associé à l’Institut de linguistique computationnelle de l’Université de Zurich. Le but est d’étudier la production de la parole chez l’enfant, l’adolescent et l’adulte et de mesurer les signaux corrélés dans l’activité cérébrale à l’aide de l’électroencéphalogramme (EEG). »
Produire une syllabe exige la coordination de beaucoup de muscles – il en faut près de 200 en tout pour parler. Articuler des sons intelligibles demande donc un contrôle très fin de ces séquences motrices. Ces dernières sont devenues automatiques à l’âge adulte mais pas encore chez l’enfant de 6 ans, même s’il connaît déjà l’ensemble des sons (phonèmes) et leurs combinaisons (syllabes) les plus communs de sa langue maternelle.
« Nous voulons également comparer la production de syllabes avec celle de séquences qui ne font pas partie du langage parlé (le non-speech) tels que les bruits faits par un bisou, un soupir ou un claquement de langue, explique Marina Laganaro. Ces bruits mobilisent les mêmes articulateurs que les paroles. Leur intérêt dans l’expérience réside dans le fait qu’ils ne font pas appel à des routines aussi entraînées chez les adultes que la parole et demandent un degré plus important de planification. »
Ce domaine n’est pas une nouveauté pour Marina Laganaro. Dans un article paru en avril 2020 dans la revue Brain and Language, le groupe de la chercheuse genevoise a en effet montré, grâce à l’EEG, que la planification motrice des mouvements speech et non speech recrute les mêmes réseaux de neurones mais avec des dynamiques temporelles différentes. De plus, la production de syllabes existantes dans la langue mais utilisées plus rarement recourt à une dynamique de recrutement des réseaux neuronaux intermédiaire entre le speech et le non-speech.
« L’EEG n’est pas très performant pour délimiter spatialement des aires cérébrales actives mais nous fournit des mesures temporelles très précises, note Marina Laganaro. Dans l’expérience que nous sommes en train de mettre sur pied, nous allons nous intéresser aux processus de planification et de programmation de la production de la parole et donc aux instants précédant l’émission du premier son. »
La chercheuse souligne enfin que cette recherche est avant tout fondamentale. Il est cependant possible que certains résultats puissent un jour avoir des retombées sur le traitement de personnes souffrant de dysarthrie ou d’apraxie de la parole, c’est-à-dire de troubles de la production de la parole apparus à la suite d’une lésion cérébrale par exemple.
Aphasie Le deuxième projet que Marina Laganaro codirige au sein du PRN avec Silvia Brem, professeure au Département de psychiatrie de l’enfant et de l’adolescent de l’Université de Zurich, concerne non pas la production de la parole mais le langage, c’est-à-dire cette faculté abstraite qui implique la planification aux divers niveaux linguistiques nécessaires pour parler (la syntaxe, le lexique, la phonologie…). Dans ce volet, la chercheuse genevoise, qui est aussi coresponsable du master en logopédie à l’UNIGE, s’intéressera plus particulièrement à la pathologie de l’aphasie acquise après une lésion cérébrale.
« L’aphasie, c’est la perte du langage chez quelqu’un qui le maîtrisait, explique-t-elle. La personne est capable d’articuler tous les sons de la parole mais souffre de troubles du langage dont le plus fréquent est l’incapacité de trouver des mots. Beaucoup de thérapies tournent autour de ce point. Nous allons tester si les nouvelles technologies, et en particulier la réalité virtuelle, peuvent être des outils efficaces dans le traitement
de l’aphasie, à savoir le réapprentissage ou la récupération de l’accès aux mots. »
Dans un premier temps, l’étude n’enrôlera que des individus sains, représentatifs de la population générale. L’expérience consistera à enseigner aux volontaires des mots qui leur sont inconnus afin de simuler la perte subie par les personnes aphasiques. Aidés là encore par l’EEG, Marina Laganaro et ses collègues compareront le processus d’apprentissage mené dans des conditions de réalité virtuelle et dans celles d’une rééducation logopédique classique.
« La réalité virtuelle permet de recréer des situations d’immersion, assure la chercheuse. Nous ne savons pas encore si cela se fera avec un masque sur les yeux ou à l’aide d’un avatar à l’écran. Mais nous avons déjà imaginé des scénarios comme un marché dans lequel on vend des fruits exotiques aux noms inconnus, des magasins d’instruments de musique anciens que plus personne ne connaît, des métiers avec des outils dont on a oublié l’existence, etc. Est-ce que l’apprentissage de nouveaux mots dans ces conditions est équivalent à celui mené dans une structure classique ? Faut-il le même nombre de répétitions (drills) avant que la nouvelle connaissance soit durablement imprimée dans la mémoire ? »
La stimulation transcrânienne dope l’apprentissage. Pas chez tout le monde
|