Les mécanismes sous-jacents à la capacité de reconnaître des expressions faciales émotionnelles sont multiples et complexes. Dans ce travail, l’attention est portée sur ce qu’un observateur perçoit, comment il interprète et comment il réagit comportementalement, cognitivement et sur le plan neuronal, face à une expression faciale émotionnelle et son contexte.
Un premier axe s’intéresse à l’interprétation que l’observateur fait du visage perçu. Seront étudiées les différences dans la capacité de reconnaissance de l’émotion exprimée selon l’accessibilité des yeux. Il semble plutôt consensuel dans la littérature que certaines caractéristiques faciales soient plus déterminantes pour reconnaître certaines émotions ; les yeux nous permettent d’identifier la colère et la peur, alors que la bouche est plus spécifique à la joie (Bombari et al., 2013; Calvo et al., 2014, 2018; Eisenbarth & Alpers, 2011). Toutefois, peu se sont intéressés à ce qu’il adviendrait de nos capacités de reconnaissance de ces émotions lorsque ces informations sont détériorées, et notamment s’il opérait un changement de catégorisation. En effet, des études ont montré que la direction du regard du visage émotionnel a un impact sur l’interprétation de la source de l’émotion : un visage de colère regardant à gauche ne provoque pas les mêmes réactions que s’il nous regarde directement (Mumenthaler & Sander, 2012, 2015). Se pose donc la question de l’interprétation associée à une détérioration de la perception des yeux ; qu’interprète l’observateur quand les yeux du visage émotionnel sont fermés ? La source de l’émotion ne peut plus être externe. Est-ce que cela impacte l’émotion perçue ? Et qu’en est-il de visages avec des lunettes de soleil opaques pour lesquelles on ne voit pas les yeux ? Il s’agit d’une situation ambivalente, où la perception et l’interprétation se confondent. Dans cet axe, il s’agira donc d’étudier ces différences pour en comprendre les mécanismes.
Un deuxième axe s’intéressera à la compréhension des dynamiques attentionnelles de l’observateur lors de ces reconnaissances de visages. À l’aide de techniques psychophysiologiques (eye-tracking et électroencéphalogramme), seront étudiées les différences dans les comportements oculomoteurs de l’exploration des visages émotionnels à l’accès aux yeux détériorés, ainsi que les différences d’activations cérébrales associées à ces cognitions sous-jacentes. Il est central de comprendre si notre attention se porte identiquement aux yeux lorsque ceux-ci sont fermés, derrière des lunettes, ou ouverts, pour pouvoir comprendre si des processus attentionnels peuvent expliquer ou avoir lieu en concomitance des différences dans la reconnaissance d’expressions faciales émotionnelles.
Enfin, un troisième axe s’intéressera à l’impact du contexte. Des études ont montré que des informations contextuelles, y compris sociales, permettaient d’influencer la capacité de reconnaissance d’une expression faciale émotionnelle ambiguë (Mumenthaler & Sander, 2012). Est-ce que cet effet peut être retrouvé lorsque l’ambiguïté n’est pas dans l’expression en elle-même mais dans la capacité de perception de la totalité de l’information, comme avec des lunettes ?
Les axes abordés dans cette thèse constituent quelques voies de recherche pour démêler les liens entre perception, attention, et réponses neuronales dans la reconnaissance des expressions faciales émotionnelles et leur contexte. Ce travail contribue à notre compréhension des mécanismes qui régissent la détection et l'interprétation des émotions sur les visages, en mettant en lumière comment ces processus interagissent et sont influencés par des facteurs externes. Ainsi, la thèse offre une nouvelle perspective sur les bases de la communication non-verbale humaine et les influences de la perception visuelle dans les interactions sociales.
Bombari, D., Schmid, P. C., Schmid Mast, M., Birri, S., Mast, F. W., & Lobmaier, J. S. (2013). Emotion Recognition : The Role of Featural and Configural Face Information. Quarterly Journal of Experimental Psychology, 66(12), 2426‑2442. https://doi.org/10/gt4hqj
Calvo, M. G., Fernández-Martín, A., Gutiérrez-García, A., & Lundqvist, D. (2018). Selective eye fixations on diagnostic face regions of dynamic emotional expressions : KDEF-dyn database. Scientific Reports, 8(1), 17039. https://doi.org/10/gh3j6n
Calvo, M. G., Fernández-Martín, A., & Nummenmaa, L. (2014). Facial expression recognition in peripheral versus central vision : Role of the eyes and the mouth. Psychological Research, 78(2), 180‑195. https://doi.org/10/gtz4ms
Eisenbarth, H., & Alpers, G. W. (2011). Happy mouth and sad eyes : Scanning emotional facial expressions. Emotion, 11(4), 860‑865. https://doi.org/10/d5dvzt
Mumenthaler, C., & Sander, D. (2012). Social appraisal influences recognition of emotions. Journal of Personality and Social Psychology, 102(6), 1118‑1135. https://doi.org/10.1037/a0026885
Mumenthaler, C., & Sander, D. (2015). Automatic integration of social information in emotion recognition. Journal of Experimental Psychology: General, 144(2), 392‑399. https://doi.org/10/f678s9