Campus 112

Campus

Dossier | linguistique

Parler, pas si simple

Dans un lexique mental qui comprend en moyenne 70 000 entrées, le cerveau humain est capable, grâce à un système de tri d’une formidable efficacité, de reconnaître certains mots avant même qu’ils ne soient entièrement prononcés

C’est simple comme «bonjour», dit-on pour qualifier une action anodine. Pourtant, l’unique fait de prononcer ces deux syllabes et d’être compris par son interlocuteur cache des processus d’une complexité souvent insoupçonnée. Comprendre ce qui se passe durant la production des sons correspondant à un mot et lors de leur interprétation par une autre personne est l’un des objectifs poursuivis par Uli Frauenfelder, professeur de psycholinguistique à la Faculté de psychologie et des sciences de l’éducation. Axés sur l’organisation et le fonctionnement du lexique mental – que l’on pourrait trivialement définir comme un dictionnaire de mots situé quelque part dans notre cerveau –, les travaux de son équipe concernent plus particulièrement les processus de stockage, de production et de réception du langage.

Pour que deux personnes puissent communiquer oralement, il faut, d’une part, que le locuteur soit capable de transformer un concept mental (le sens d’un mot) en une séquence de sons, et, d’autre part, que son interlocuteur soit capable de décoder cette dernière pour en retrouver le sens au sein d’un lexique mental qui, chez un adulte moyen, comprend environ 70 000 mots.

Vision «localiste»

Globalement, les scientifiques distinguent deux manières de représenter l’information contenue dans le lexique mental. La première est une vision «localiste» selon laquelle les informations relatives à chaque mot sont représentées par un ensemble de neurones localisés dans une zone spécifique du cerveau. Reprenant la distinction saussurienne entre l’image acoustique d’un mot (le signifiant) et son sens (le signifié), la seconde met en avant une organisation plus diffuse, avec des zones spécifiques associées au traitement phonologique et au traitement sémantique.

Plusieurs résultats expérimentaux tendent à corroborer ce dernier point de vue. En particulier, les travaux menés sur les pathologies du langage indiquent que certains patients atteints de lésions cérébrales spécifiques ont perdu l’accès à certaines catégories de mots uniquement, par exemple les termes associés au mobilier.

«Plus communément, l’expérience du «mot sur le bout de la langue», à laquelle chacun de nous a déjà été confronté, milite aussi pour cette vision des choses, explique Odile Bagou, maître-assistante FNS au sein de la Section de psychologie de la FPSE. Dans ce genre de situation, on est souvent capable de retrouver certaines caractéristiques du mot recherché (par exemple, le premier son, le nombre de syllabes, le genre), mais sans être pour autant capable de le produire précisément. Ce phénomène quasi quotidien illustre bien la fragilité du lien entre sens et son. Il montre aussi que l’on peut parfaitement récupérer le sens du message à transmettre et, en particulier, le sens du mot dont on a besoin, sans pour autant réussir à récupérer les sons qui le composent.»

Quelle que soit la réalité physique du lexique mental, ce qui est acquis aux yeux des scientifiques c’est qu’il ne ressemble en tout cas pas à un dictionnaire dans lequel les mots seraient classés les uns après les autres, de manière linéaire. «Il faut considérer que, pour être interprété par un interlocuteur, chaque phonème est transformé en une sorte de clé, explique Uli Frauenfelder. Cette clé est, en l’espace de quelques centaines de millisecondes, comparée à l’ensemble des mots contenus dans le lexique mental. Sitôt que le terme est identifié, les informations sémantiques et syntaxiques qui lui sont associées deviennent disponibles.»

Les capacités du système ne s’arrêtent pas là. En utilisant des méthodes de gating, une technique consistant à présenter successivement des parties de mot de plus en plus longues, il a été démontré que le cerveau humain était capable de reconnaître un mot avant même qu’il ne soit totalement entendu ou écrit.

«L’explication qui semble la plus logique est que les mots sont organisés en cohorte, précise Uli Frauenfelder. Les termes qui partagent certains éléments, comme un premier son identique, sont ainsi regroupés au sein du lexique. Sachant qu’il existe près de 2000 mots commençant par le son /r/, mais qu’ils ne sont plus qu’une dizaine lorsqu’on y ajoute le son /i/, c’est un moyen extrêmement efficace pour identifier rapidement la bonne cible.»

Cette faculté est d’autant plus nécessaire que l’estimation de la taille du lexique mental ne considère en général qu’une seule prononciation, dite «canonique», par mot. Or dans les faits, il est fréquent qu’un mot se prononce de plusieurs manières. Ce phénomène est flagrant en anglais, où «international» se réduit parfois à «i’national», mais également en français, les Genevois étant souvent désignés comme des «G’nevois» ou des «Gen’vois».

Sur ce point, de récentes recherches menées conjointement par Uli Frauenfelder et Audrey Bürki, maître assistante au sein de la Section de psychologie, ont permis de montrer que les variantes de prononciation étaient représentées en mémoire au même titre que les prononciations canoniques.

«Petit ami» ou «petit tamis»?

«Ces travaux remettent en question les modèles traditionnels du système de production langagier, commente Uli Frauenfelder. Ils suggèrent que le système de stockage et de production des mots repose sur des principes bien plus complexes qu’on ne l’imaginait jusqu’ici.»

Par ailleurs, comment expliquer que l’auditeur puisse accéder correctement au mot «ami» lorsqu’il entend «petit ami», alors que cette séquence de sons pourrait également correspondre à la séquence «petit tamis»? Contrairement au langage écrit, la parole est en effet continue et ne comporte ni espace ni silence permettant à l’auditeur de localiser où et quand débute ou finit un son, une syllabe ou un mot.

Les recherches menées conjointement par Uli Frauenfelder et Odile Bagou visent précisément à étudier le rôle des différents indices disponibles dans le signal de parole et permettant de le découper correctement en mots.

«Les études antérieures ont montré que plusieurs indices pouvaient aider l’auditeur, poursuit le professeur. Par exemple, on sait que les sons qui se situent au début des mots n’ont pas les mêmes caractéristiques acoustiques que ces mêmes sons dans une autre position. On sait également que nos connaissances de la langue, et en particulier, les connaissances phonologiques, sont utilisées efficacement pour extraire les mots de la parole continue. Par exemple, le fait que le son /n/ ne puisse pas précéder le son /l/ en début de mot en français nous indique la présence d’une frontière entre les mots «bonne» et «lutte» dans la séquence «bonne lutte». L’accentuation et la mélodie de la parole (la prosodie) peuvent aussi nous aider à déterminer où se situent les fins de mots en français puisque les mots sont usuellement accentués et portent des variations mélodiques sur leur dernière syllabe. Ce qu’on ignore en revanche, c’est la manière dont ces différents indices collaborent ou deviennent antagonistes.»

Les résultats obtenus récemment par les deux chercheurs montrent que ces indices sont hiérarchiquement organisés, selon un ordre qui dépend de la langue du locuteur. En anglais, les indices prosodiques sont ainsi moins pertinents que les indices phonologiques, tandis que la situation est inversée en français. Ce qui indique que la hiérarchie des différents indices permettant de segmenter la parole ne serait donc pas universelle, mais spécifique à la langue du locuteur.