L’explication en psychologie et le parallélisme psychophysiologique. Histoire et méthode ; 5ᵉ ed. (1981) a 🔗
I. Introduction🔗
Un traité de psychologie expérimentale se doit d’aborder les deux questions de l’explication et du parallélisme parce qu’elles se posent toutes deux nécessairement à l’expérimentaliste. Nous constaterons d’ailleurs que ces deux problèmes s’impliquent l’un l’autre : il suffît donc de reconnaître la pertinence de l’un des deux pour qu’elle entraîne celle de l’autre.
1° Nécessité de l’explication🔗
La question de l’explication se pose à l’expérimentaliste, non pas en vertu de principes a priori que comporteraient la définition de la psychologie ou les règles de la méthode expérimentale, mais parce que les étapes de toute recherche expérimentale spontanée et autonome s’échelonnent selon des paliers successifs dont ceux qui dépassent un certain niveau correspondent à ce qu’on appelle communément dans les sciences la vérification d’une hypothèse explicative.
Prenons comme exemple une « illusion » optico-géométrique quelconque telle que celle de Müller-Lyer. L’observation a d’abord mis en évidence le fait qu’une horizontale de longueur L paraît subjectivement plus longue si elle est pourvue à ses extrémités de pennures externes que munie de pennures

Â
nternes ou même que dépourvue de pennures (fig. 1). La première tâche de l’expérimentateur est alors de vérifier si le fait est général, c’est-à -dire s’il s’agit d’une loi. Les étapes suivantes (mais ce ne sont pas forcément celles qui suivent immédiatement, dans l’ordre chronologique, car il y a toujours des esprits qui tendent à brûler les étapes et qui cherchent les explications ou les causes avant de bien connaître les lois) seront caractérisées par des approximations plus poussées dans l’établissement des lois : on fera par exemple varier les figures de manière à déterminer sous quelle forme ou selon quelles proportions l’illusion est maximale ; ou encore on vérifiera si l’illusion est aussi forte quantitativement à tout âge ou si elle augmente ou diminue avec le développement ; on étudiera de même l’effet de la répétition ou exercice, etc. Mais ces expériences destinées à l’établissement de faits généraux ou de lois d’extensions variées se doubleront tôt ou tard d’autres expériences orientées cette fois vers la vérification d’hypothèses explicatives. Cette orientation nouvelle peut surgir de deux manières, en discontinuité ou en continuité plus ou moins grandes avec ce qui précède.
La manière discontinue caractérise les hypothèses explicatives forgées en marge de l’établissement des lois initiales. On a par exemple supposé que l’illusion de Müller-Lyer était due à des mouvements oculaires parcourant la ligne L dont la longueur est à estimer : favorisés par les pennures externes, ces mouvements conduiraient alors à une surestimation de la longueur de la ligne parcourue, tandis que les pennures internes gêneraient le déplacement du regard et entraîneraient une sous-estimation. Mais de telles hypothèses explicatives, même nées en marge de la recherche des lois de départ, ne gênent pas le travail expérimental qu’elles favorisent parfois
[p. 139]au contraire, et cela presque indépendamment de leur justesse. L’hypothèse particulière que nous rappelons a donné lieu, en effet, à deux sortes de contrôles fructueux, qui l’ont démentie, mais ont conduit à l’établissement de lois nouvelles complétant les précédentes. L’un de ces contrôles a consisté à mesurer l’illusion en tachistoscope à des durées trop courtes pour que les mouvements oculaires interviennent : l’illusion dure encore, ce qui exclut l’hypothèse ainsi testée, mais permet d’établir la loi de distribution des erreurs en fonction de la durée de présentation (1). L’autre a consisté à enregistrer les mouvements oculaires, ce qui a également contredit l’hypothèse mais a abouti à la constatation de nouveaux faits généraux. Si par contre l’hypothèse avait été confirmée, on eût évidemment obtenu d’autres lois, mais avec quelque chose en plus qui eût été un début d’explication, le problème se posant alors d’établir en quoi consiste une explication et quelle est sa relation avec les lois.
2° Le passage continu de la recherche des lois
aux hypothèses explicatives🔗
Mais la recherche de l’explication peut surgir en continuité complète avec l’établissement des lois initiales. Par exemple, en variant les propriétés de la figure pour établir en quelles conditions on obtient le maximum d’illusion, on sera conduit tout naturellement à modifier l’angle compris entre les pennures ou (ce qui en résulte) l’angle qu’elles forment avec l’horizontale L dont la longueur est à estimer. La question se posera alors nécessairement de savoir si c’est l’angle qui est responsable de l’illusion et c’est là déjà une hypothèse explicative. Les contrôles montrent au contraire que l’angle n’est pas le facteur principal, tout en jouant un rôle, et que la relation fondamentale est celle qui est donnée entre les grands et petits côtés parallèles (B et A ou B’ et A’ sur la fig. 1) des trapèzes engendrés par la figure de Müller-Lyer (celle-ci consiste, en effet, en deux trapèzes accolés soit par une grande soit par une petite base commune, l’autre demeurant virtuelle). Or, réduire cette illusion classique à celle des trapèzes constitue un début d’explication, mais encore bien modeste puisque le problème est alors déplacé sur celui des raisons de la sous-estimation de la grande base des trapèzes et de la surestimation de sa petite base (2).
On sait que le positivisme d’Aug. Comte proscrit la recherche des causes et prétend que la science s’en tient à l’établissement des lois. Un expérimen- taliste imbu de préceptes a priori tirés de la méthodologie positiviste pourrait donc soutenir qu’il ne recherche pas ces raisons et se contente de vérifier les lois perceptives du trapèze. Mais cet exemple est justement excellent pour montrer qu’il ne s’en tiendra jamais là . En effet, en règle générale lorsque deux longueurs inégales A et B sont comparées perceptivement et que leur différence A < B dépasse sensiblement les valeurs liminaires, A est sous-
(1) Voir le chap. XVIII (• Le développement des perceptions >), sous-chap. III.
(2) Voir chap. XVIII, début du sous-chap. IL
[p. 140]estimé et B surestimé. Il est donc très difficile de penser que l’expérimentateur le plus positif n’en viendra pas, sous une forme ou une autre, à se demander pourquoi il n’en est pas de même dans le cas des bases du trapèze. Répondre qu’il est des cas où, si A < B, la différence est renforcée (contraste) et d’autres où elle est dévalorisée (assimilation) ne suffira pas longtemps, car il reste à établir en quelles conditions ou sous l’influence de quels facteurs le contraste prime ou l’inverse. Or, la recherche des conditions ou des facteurs présente évidemment un caractère explicatif. Une autre réponse possible (qui est la nôtre) consiste à soutenir qu’en un trapèze les différences A" entre les longueurs des bases A et B (et perçues dans les deux prolongements de la petite base A ou A’, fig. 1) présentent un caractère figurai (par opposition au cas du rectangle où la différence entre les grands et petits côtés n’est pas perçue à titre d’élément particulier de la figure) et que les relations entre les bases A ou B et la différence A" obéissent alors à des effets de contraste qui dévalorisent la différence A" et rendent donc compte de la sous-estimation de B (ou B’) sans faire appel à l’assimilation. On aboutit ainsi à de nouvelles « lois » ou relations légales (à la fois vérifiables et calculables) entre B et A", etc. ; mais, qu’on s’exprime en un langage ou en un autre, ces lois partielles « expliquent » la relation globale entre B et A et en fournissent une raison en première approximation. Bien entendu, cette première approximation soulève de nouvelles questions, qui provoquent la recherche de nouvelles lois et de nouvelles explications, et ainsi de suite (1).
Si ce besoin d’expliquer se manifeste dès l’analyse de paliers hiérarchiques relativement élémentaires, comme celui de la perception, à plus forte raison en est-il de même pour toutes les conduites plus complexes, au sein desquelles tout nouvel état apparaît comme le résultat d’une transformation : c’est alors la recherche de celle-ci qui constitue le caractère propre de l’explication. Mais il faut noter qu’en bien des cas cette dernière demeure implicite et qu’elle ne s’explicite qu’une fois apparus des doutes sur la nature de la transformation en jeu. Par exemple de nombreux auteurs ont admis sans discussion que le développement des structures cognitives chez l’enfant était dû à une suite ininterrompue d’apprentissages à partir, soit du milieu éducatif, soit de l’expérience acquise au contact des objets, cette explication globale (et souvent implicite) renvoyant alors à une analyse explicative plus détaillée des mécanismes de l’apprentissage. Or les expériences de B. Inhelder, H. Sinclair et M. Bovet (2) ayant montré que les mêmes conditions précises d’apprentissage aboutissent à des résultats bien différents selon le niveau du sujet et que l’apprentissage lui-même est donc subordonné au développement, il ne reste donc pour expliquer celui-ci que les deux hypothèses d’une innéité, avec maturation progressive dans l’exécution du programme héréditaire, ou d’un système de régulations et d’autorégulations, donc d’équilibration graduelle et majorante (c’est-à -dire avec optimalisations relatives). Or ce sont là toutes deux des hypothèses expli-
(1) Voir chap. XVIII, II Ă IV.
(2) B. Inhelder, H. Sinclair et M. Bovet, Apprentissage et structures de la connaissance, Presses Universitaires de France, 1974.
Â
[p. 141]catives, ajoutant des facteurs endogènes à celui des acquisitions exogènes (apprentissage), qui sont nécessaires quoique non suffisantes. Mais on voit d’emblée qu’elles soulèvent une série de nouvelles questions : d’une part elles renvoient à la biologie, puisque l’hérédité et l’autorégulation sont les deux facteurs les plus généraux des processus organiques, et, sur ce terrain, il convient d’en élucider les mécanismes formateurs ; d’autre part, au plan des conduites psychologiques, il reste à déterminer leurs influences respectives et surtout à préciser en chaque cas les transformations que ces facteurs entraînent et conditionnent, ce qui exige une série de nouvelles explications.
Étant donc admis que toute analyse expérimentale débouche à la fois sur des faits généraux ou lois et sur des hypothèses explicatives dont un certain nombre d’expériences se proposent également de vérifier le bien- fondé, il nous reste, pour introduire ce chapitre, à chercher ce qui caractérise en psychologie le caractère « explicatif » d’une hypothèse ou d’un système de relations vérifiées, par opposition au caractère simplement « légal » ou « constatif » des relations établies sans autre souci que déterminer leur généralité. Nous allons bien entendu essayer de dégager cette différence sans aucun souci de notions a priori sur la loi et la cause, et sans même partir de l’examen du problème correspondant en des sciences étrangères à la psychologie, comme la physique et la biologie : c’est sur le seul terrain de l’expérimentation psychologique que nous allons chercher s’il existe quelque critère de différenciation entre l’explication (causes) et la pure description (faits généraux ou lois).
II. Les lois et les causes🔗
Dans l’exemple perceptif qui vient de nous montrer comment une recherche de l’explication prolonge spontanément l’établissement des lois et le dirige même en bien des cas, il faut d’abord constater que les hypothèses explicatives proposées pour rendre compte des lois consistent elles aussi (qu’elles soient ensuite ou non vérifiées par l’expérience) à invoquer des lois : que ce soient les mouvements oculaires, les angles ou les trapèzes qui « expliquent » la surestimation de l’horizontale dans la figure de Müller-Lyer à pennures externes, il s’agit dans les trois cas d’un faisceau de lois (lois de ces mouvements, de ces angles, etc.) dont on tire alors la loi de surestimation qui était à interpréter. Il semble donc (mais seulement au premier abord) que pour l’expérimentaliste la notion de cause se confonde avec celle de loi et c’est bien à cette confusion (devenue souvent intentionnelle sous l’influence du positivisme) que l’on tend lorsque l’on se borne à définir la « cause » comme une « succession régulière ».
1° Analyse de deux hypothèses explicatives🔗
Mais analysons de plus près l’hypothèse explicative des mouvements oculaires, qui s’est révélée fausse dans le cas de la figure de Müller-Lyer, en la comparant à une hypothèse voisine qui s’est montrée adéquate dans
«Â

le cas d’une autre « illusion » ; et cherchons, en confrontant ces deux situations, ce que l’explication causale ajoute à la simple légalité.
Ce second exemple d’illusion (qui montre d’ailleurs autant que le premier comment le besoin d’expliquer s’impose immanquablement au cours de la recherche) est celui de la surestimation de l’élément supérieur A en cas de comparaison entre deux verticales égales A et B se prolongeant l’une l’autre (fig. 2). On sait, en effet, que deux horizontales égales A’ et B’ en prolongement ne donnent pas lieu à des erreurs systématiques (sauf certaines latéralisations individuelles), tandis que la verticale supérieure A est valorisée par rapport à B. Si le psychologue ambitionne d’être plus qu’un simple collectionneur de faits, il faut bien alors qu’il en cherche la raison. Nous avons donc fait l’hypothèse (1) que, les horizontales
étant perceptivement symétriques, les points de fixation se répartiront symétriquement sur A’ et B’ (par exemple vers le milieu de A’ et de B’) et que les mouvements de comparaison oscillant entre ces centrations sur A’ et B’ ne donneront donc pas lieu à des asymétries déformantes ; au contraire les verticales A et B étant perceptivement asymétriques (l’une dirigée vers le sol et l’autre vers l’espace supérieur ouvert), les points de fixation privilégiés seront situés au sommet de A et au sommet de B : d’où un balayage entre ces deux sommets qui avantagera l’élément A et défavorisera la partie inférieure de B. Or l’analyse cinématographique des mouvements oculaires conduite par Vinh-Bang sur ces figures a effectivement
(1) Voir chap. XVIII, VI.
montré : 1° une accumulation des points de centration sur les sommets des verticales A et B, mais vers le milieu de la figure formée par les horizontales A’ et B’ ; 2° une répartition égale des mouvements de comparaison A’B’ et B’A’ dans le cas des horizontales et inégale (BA > AB) dans le cas des verticales.
Pourquoi donc l’hypothèse du rôle des mouvements oculaires est-elle explicative en cette situation et ne l’est-elle pas sous la forme qu’on lui a donnée dans le cas de la figure de Müller-Lyer ? Et que nous apprend cette comparaison quant à la distinction entre les « lois » et les a causes » ?
L’hypothèse aurait fort bien pu réussir dans le cas de la figure de Müller- Lyer (et on la reprendra certainement un jour sous une forme plus adéquate), mais elle a échoué pour deux raisons distinctes quoique sans doute complémentaires. La première raison est que la loi de distribution des mouvements oculaires dans l’exploration de cette figure ne s’accordait pas avec la loi de surestimation du segment de droite à évaluer. On s’est donc trouvé en
[p. 143]présence de deux lois expérimentalement correctes, mais dont on ne peut pas déduire l’une de l’autre : ce fait banal est néanmoins fondamental et montre d’emblée que la « cause » n’est pas à chercher au niveau de la « loi », mais bien à celui de la déduction d’une loi à partir d’une autre ou d’un ensemble d’autres, donc au niveau de la construction déductive (si simples et immédiates que puissent être ces déductions). La seconde raison, qui lui est parallèle, est que, sous la forme initialement donnée à l’hypothèse, on parvenait mal à se représenter clairement le substrat réel (ici physiologique), assurant la liaison entre un mouvement du globe oculaire, d’une part, et l’organe spécialisé d’enregistrement de la longueur d’une droite (cellules de la rétine, etc.), d’autre part. En d’autres termes, pour qu’il y ait explication, il ne suffît pas de déduire les lois d’une manière formelle : il reste à appuyer cette déduction sur un substrat réel ou « modèle » concret ou abstrait, permettant de se représenter les relations en jeu, et, de manière plus générale, de coordonner les plans de réalité ou d’introduire entre les lois établies une hiérarchie du point de vue de leur domaine d’application (estimations conscientes, réactions de comportement, lois physiologiques, etc.).
Si l’hypothèse des mouvements oculaires semble au contraire explicative dans le cas des verticales superposées, c’est que ces deux conditions tendent à être remplies. D’une part, les lois de surestimation et celles de la distribution des mouvements de comparaison ainsi que des points de fixation semblent s’accorder, de telle sorte que l’on peut déduire les premières des secondes, moyennant l’introduction des lois observées quant au détail des effets de surestimation par centration (Fauville, Hillebrand, Piaget et Morf, Fraisse, etc.). D’autre part, il est possible de construire des schémas ou modèles permettant de coordonner les diverses lois (faits généraux) observées en hiérarchisant leurs domaines d’application : on fera ainsi correspondre les surestimations par centration (en tant que réactions perceptives se traduisant par des « jugements », etc.) à des modèles probabilistes de « rencontres » (et de « couplages » ou correspondances entre « rencontres » : voir le chap. XVIII de ce Traité, sous III et IV), qu’on fera eux-mêmes correspondre en approximations diverses à des modèles organiques (densité des cellules dans la fovéa, micromouvements d’exploration dirigés par des régulations de vigilance ou d’attention, etc.).
Un second exemple d’hypothèse explicative peut être donné en ce qui concerne la formation des notions de conservation chez l’enfant, comme dans le cas d’une boulette de pâte transformée en boudin, où la conservation de la quantité de matière n’est spontanément acquise qu’aux environs de 7 ans. Une première interprétation parfois proposée est qu’il y a là une simple constatation empirique. Mais le caractère tardif de cette invariance et sa synchronisation avec les premières « opérations » logico-mathématiques (sériations, etc.) montrent qu’il y a d’autres facteurs en jeu, et de nature endogène. J. Bruner a proposé d’y voir une généralisation du principe d’identité : « la même pâte » entraînerait ainsi « la même quantité ». Mais quand l’enfant dit : « On n’a rien ôté et rien ajouté » ou « On n’a fait que l’allonger » (arguments les plus fréquents), il y a là davantage d’une iden-
[p. 144]tification : on est en présence de l’« opération identique » ( ± 0) d’un « groupement », solidaire d’une structure opératoire additive, ce qui dépasse de loin l’identité pure. La dernière hypothèse à laquelle nous sommes parvenus, avec contrôles expérimentaux récents, est alors que la conservation résulte de la double compréhension du fait qu’un changement de forme n’est dû qu’à des déplacements des morceaux de l’objet et surtout du fait que, en tout déplacement, ce qui est ajouté au point d’arrivée équivaut à ce qui est enlevé au point de départ. Or, centré tout d’abord sur les seuls points d’arrivée de l’action, l’enfant n’y voit qu’une nouvelle forme de l’objet, à comparer à la précédente sans s’occuper du processus même de la transformation, et conçoit donc le déplacement comme une sorte de production. C’est seulement lorsqu’il le réduit à un simple changement de position qu’est atteinte la conservation et l’on peut appeler « commutabilité » cette nouvelle relation telle que B déplacé par rapport à A ne modifie pas les quantités A + B (la commutativité en est un cas particulier, mais en ordre linéaire A + B = B + A) : l’essentiel en est de comprendre que si A est ajouté en une position finale, c’est qu’il a été enlevé de sa position initiale.
Or, il est facile de contrôler cette hypothèse explicative et d’en préciser la nature. Pour ce qui est du contrôle il suffira, au lieu de pousser simplement du doigt des morceaux de la boulette pour l’allonger en saucisse, d’enlever un ou plusieurs morceaux successifs et de les placer dans le sens d’un allongement : en ce cas on obtient fréquemment dès 5 ans des conservations précoces et apparemment stables chez des sujets qui ne les présentaient pas lors des interrogations habituelles. Ils parviennent, en effet, à dominer celles-ci en post-test, après les réactions correctes aux actions d’enlever un morceau pour le remettre ailleurs, montrant ainsi que la conservation est due à cette commutabilité, ou compensation nécessaire entre les soustractions au départ et additions à l’arrivée (1).
Mais en quoi une telle interprétation peut-elle être considérée comme explicative et ne se réduit pas à une simple description ? Le problème étant de comprendre pourquoi le sujet en arrive à porter un jugement de conservation, alors qu’il pensait le contraire auparavant, la solution ne peut consister comme toujours qu’à dégager les raisons d’une telle transformation, de même qu’au plan perceptif il s’agissait de trouver celles des modifications de la longueur apparente d’une droite lorsqu’on la présente verticalement et non plus horizontalement. Mais, dans le présent cas, ces raisons relèvent d’implications conceptuelles, et non plus d’exploration oculo-motrice. Dans les deux cas le psychologue (comme par ailleurs le physicien, le biologiste, etc.) construit un modèle déductif, s’efforçant donc d’atteindre de telles raisons, et cela en tant que nécessaires, puis il le confronte avec les faits susceptibles de le confirmer. Seulement, comme il s’agit maintenant d’implications conceptuelles, le sujet construit lui-même de tels modèles et le problème
(1) Pour ces faits, voir B. Inhelder, A. Sinclair, A. Blanchet et J. Piaget, Relations entre les conservations d’ensembles d’éléments discrets et celles de quantités continues, Année psychologique, 1975.
[p. 145]revient alors simplement à établir si celui du psychologue coïncide avec celui du sujet. Or cette question, apparemment « simple », est en réalité pleine d’embûches, car si l’explication, ici comme partout, revient à « attribuer » à des objets des processus analogues aux opérations du théoricien, ces « attributions » risquent d’être trop faciles et par conséquent déformantes, lorsque ces objets sont eux-mêmes des sujets : d’où le risque permanent, en psychologie de l’enfant, de prêter à celui-ci les raisonnements du psychologue lui- même. Heureusement que la considération des stades successifs du développement permet à l’observateur de se décentrer sans cesse, et même l’y oblige. On peut donc conclure avec P. Gréco, en un chapitre sur l’épistémologie de la psychologie (1) : « Le psychologue craint toujours de reconstruire le sujet à son image ; mais le sujet le lui a bien rendu. »
2° Les trois démarches de la recherche🔗
De la discussion de ces exemples, nous pouvons donc conclure à la nécessité de distinguer trois sortes de démarches dans la recherche psychologique, dont la première demeure au niveau de la légalité, tandis que les deux autres combinées caractérisent l’explication causale :
1° Il y a d’abord l’établissement des faits généraux ou lois. Il faut reconnaître à cet égard que la constatation expérimentale aboutit toujours à retrouver des lois. Même la démarche 3, qui consiste à introduire un substrat ou modèle et un ensemble de liaisons entre les lois initiales, revient à établir ou à supposer de nouvelles lois, car ces liaisons continuent elles aussi à se traduire par des lois, mais d’échelle plus fine que celle des lois à expliquer.
Mais la loi en elle-même n’explique encore rien puisqu’elle se borne à constater la généralité d’une relation de fait (succession, corrélation, etc.). L’explication ne commence qu’avec la coordination des lois et cette coordination se présente sous deux formes complémentaires (2 et 3).
2° A la simple légalité s’ajoute, en premier lieu, un nouvel élément qui n’est pas compris dans la seule idée de loi : c’est la construction déductive (si simple soit-elle en certains cas) au moyen de laquelle on tire la loi à expliquer des lois qui sont censées l’expliquer (et qui l’expliqueront en effet si la construction réussit du point de vue déductif et si elle est vérifiée par l’expérience). Une loi à elle seule ne comporte pas encore de construction déductive, car elle ne résulte que d’une généralisation inductive, englobant il est vrai une part plus ou moins grande de déductions probabilistes, mais organisées en vue du simple établissement de la généralité de la loi en question. L’explication suppose au contraire un système de lois telles que l’une d’entre elles puisse être construite ou reconstruite déductivement à partir des autres, et c’est là un premier caractère spécifique de l’explication par opposition à la seule légalité. Mais ce n’est pas son unique caractère, car
(1) Logique et connaissance scientifique (Encyclopédie de la Pléiade), p. 989.
[p. 146]la déduction d’une loi à partir d’un ensemble d’autres lois ne constitue pas encore une explication « causale » (1).
3° Il faut donc considérer une troisième démarche qui complète nécessairement les précédentes et qui constituera le second caractère spécifique de l’explication causale : la déduction de la loi à expliquer, à partir du système des lois qui en rendent compte, ne demeure pas simplement idéale ou « logique », mais elle s’applique à un substrat « réel » ou « modèle » qui est censé se prêter à une telle déduction et en « représenter » les diverses liaisons. Par exemple, dans le cas de l’illusion citée plus haut où une verticale supérieure est surestimée par rapport à la verticale inférieure qu’elle prolonge, on est en possession de trois lois : a) celle qui exprime cette surestimation de l’élément supérieur ; b) celle qui décrit l’accumulation des points de centration du regard aux sommets des verticales (avec donc un privilège accordé à la partie comprise entre les deux sommets, par opposition aux parties médiane et inférieure de la verticale inférieure), et c) celle qui exprime le fait qu’un élément centré par le regard est surestimé en fonction de cette centration. On peut alors déduire la loi a) des lois b) et c), mais cela ne suffit pas à rendre « causale » l’explication car il reste à se représenter le « comment », c’est-à -dire à fournir un modèle plus ou moins « réel » qui fasse à la fois comprendre l’allongement apparent résultant de la centration du regard et la manière dont ce processus s’applique à la verticale supérieure intervenant dans la loi (1). Selon les besoins, ce modèle sera alors purement physiologique, ou combiné avec un schéma probabiliste, ou s’en tenant à ce seul schéma, etc. Mais, même en ce dernier cas, le modèle ne demeurera pas formel sans quoi il se confondrait avec la déduction (2) : il consistera donc à « imaginer » le « comment » de l’allongement en schématisant simplement les réalités possibles en jeu. Il sera donc toujours « réel » d’intention, même s’il s’en tient à des schématisations jugées ultérieurement outrancières.
3° Les caractères de l’explication causale🔗
L’idéal de la déduction causale, en psychologie comme ailleurs, consistera ainsi en une construction déductive appliquée à la production des phénomènes et cette construction sera d’autant plus satisfaisante que les articulations de la déduction correspondront aux liaisons entre les objets, de manière à ce que l’ordre de la déduction explicative reflète celui des antécédents et des conséquents intervenant dans le déroulement réel et temporel des événements. En d’autres termes, l’explication causale réussira dans la mesure où à chaque transformation en jeu dans les relations entre les objets correspondra une transformation ou opération en jeu dans la déduction, celle-ci étant, par le fait même, calquée sur le réel. Causa seu
(1) Une telle déduction suffit en mathématiques où l’on ne parle généralement pas de « causes », mais où cependant G. Bouligand emploie le terme de « causalité » lorsque cette déduction fournit la « raison » d’un théorème. Seulement il manque précisément à cette « causalité », comparée à celle des Sciences expérimentales, le second caractère spécifique dont nous allons parler, et qui est relatif au mode de réalité invoqué comme substrat de la déduction.
[p. 147]ratio, disait Descartes : la cause est une coordination logique (2) « projetée » en une coordination réelle (3).
Cette projection d’une coordination logique en une coordination réelle peut être interprétée de la manière suivante, qui fournit une distinction relativement précise entre la causalité et la légalité. Le chercheur qui se livre à une exploration des phénomènes, soit pour les constater ou les décrire simplement (légalité), soit pour les expliquer, ne peut naturellement qu’utiliser ses propres opérations, seuls instruments cognitifs dont il dispose en toute situation. Mais, dans le cas de la légalité, il se borne à les « appliquer » aux objets, pour les décrire ou les mesurer, donc pour donner aux phénomènes observables une forme logico-mathématique. Par contre, dans le cas de la causalité, les opérations du sujet sont « attribuées » aux objets, en ce sens que ceux-ci sont promus au rang d’« opérateurs » et que leurs actions ou transformations sont conçues comme isomorphes ou analogues à nos propres opérations, ce qui les rend intelligibles. En physique, par exemple, un nombre croissant de phénomènes, et parmi les plus importants, est interprété sur le modèle des « groupes de transformations » (sans insister sur les diverses géométries d’abord inventées par le sujet, puis attribuées aux objets eux-mêmes comme dans le cas de la gravitation einsteinienne). En psychologie il en va de même, d’autant plus que les objets de son étude sont eux aussi des sujets. Les explications proposées pour les mécanismes perceptifs peuvent ainsi résulter de l’attribution de modèles soit en quelque sorte dynamogéométriques comme avec la théorie des « catastrophes » (changements brusques de forme) de R. Thom, soit probabilistes (comme le nôtre), soit même essentiellement logiques (avec 1’« identification » de J. Bruner, etc.). L’explication suggérée plus haut pour la genèse des idées de conservation consiste à montrer comment elles deviennent logiquement nécessaires, du point de vue des opérations du psychologue et à attribuer aux sujets étudiés des opérations analogues, quitte à vérifier qu’il en est bien ainsi et que ces attributions ne sont pas illusoires. Bref, en tous les domaines, la causalité, pour trouver la « raison » des relations établies par la légalité, les insère en des structures dont l’objectivité s’accroît par approximations successives, mais dont la construction est due aux opérations du sujet.
Ainsi conçue, l’explication présente bien les deux caractères que l’on attribue classiquement à la causalité, par opposition à la simple légalité : a) la nécessité des rapports entre causes et effets, laquelle provient de leur déductibilité ; b) la réalité de ce lien causal sous-jacent aux phénomènes mesurés (et qui dépasse ainsi le pur phénoménisme), laquelle est assurée par le modèle servant de substrat à la déduction.
Ces deux nouveautés caractéristiques de l’explication causale et débordant le cadre de la seule légalité se distinguent, d’autre part, l’une de l’autre pour la raison suivante. La coordination des lois en quoi consiste leur déductibilité à l’intérieur des systèmes qu’elles constituent entre elles ne repose que sur les règles de la déduction logico-mathématique, qui demeurent formelles. Les modèles servant de substrat à la déduction requièrent au contraire une coordination des plans ou domaines de réalité
[p. 148]et comportent par conséquent un ensemble de jugements d’existence. Cette seconde coordination, qui est donc « réelle » et non plus formelle, admet en particulier deux sous-variétés importantes. L’une procède par mise en hiérarchie des plans de réalité : les modèles organicistes seront, par exemple, axés sur la représentation de liaisons nerveuses par rapport auxquelles s’ordonneront les réactions de comportement et, en un secteur limité, les épiphénomènes conscients, tandis que d’autres modèles seront axés sur le comportement envisagé globalement, etc. L’autre sous-variété procède par mise en correspondance ou en isomorphisme de domaines de réalité irréductibles les uns aux autres : c’est ici que se posera la question du parallélisme ou de l’isomorphisme entre les structures caractéristiques des états de conscience et les structures organiques concomitantes.
Quant à la vérification des hypothèses explicatives, il faut rappeler les importantes analyses critiques de Popper, qui s’appliquent à la psychologie aussi bien qu’aux autres sciences expérimentales. Selon cet auteur, le pouvoir des contrôles demeurerait toujours de nature négative, en ce sens que l’examen des faits peut à bon droit démontrer la fausseté de la supposition soumise à l’épreuve, mais ne suffit jamais à en démontrer la vérité. Au cas où les données expérimentales semblent lui donner raison, on ne sait, en effet, quels facteurs encore inconnus peuvent intervenir en plus ou même à la place de celui que l’on croit mettre en évidence : d’où la célèbre formule de Popper selon laquelle les hypothèses les plus fécondes sont les plus « falsifiables ». Mais si une telle interprétation limitative est assurément à retenir, il reste que les contrôles successifs comportent parfois un progrès dans les approximations et peuvent donc accroître la vérité probable de l’hypothèse en discussion. Dans le cas de la « commutabilité » décrite précédemment, on constate, par exemple, qu’en partant de morceaux discontinus pour les réunir en une boule on favorise un peu la conservation, par rapport aux simples changements de la forme d’ensemble, mais le progrès est bien plus net si l’on enlève des morceaux en un point quelconque de l’objet total pour les replacer aussitôt mais en d’autres positions. Il y a donc des degrés à distinguer dans la compréhension du fait que les changements de forme ne sont dus qu’à des déplacements, et surtout du fait que ceux-ci consistent à n’ajouter sur un point que ce qu’on a enlevé d’un autre : or, lorsque le facteur que l’on invoque à titre explicatif est susceptible de variations et ne se présente pas simplement sous des formes de présence ou absence, donc de tout ou rien, la vérification comporte plus d’aspects positifs qu’en ce dernier cas et l’on peut ainsi parler d’approximations progressives dans le sens de l’objectivité. D’autre part, une hypothèse qui se trouve « falsifiée » en certaines situations peut ne pas l’être en d’autres, de telle sorte qu’avant de rejeter le modèle parfois démenti par quelques faits, il reste la possibilité de différenciations multiples : c’est ce qu’a montré en physique l’histoire des conflits entre les théories corpusculaires et ondulatoires de la lumière.
III. La multiplicité
des formes d’explication psychologique🔗
On sait qu’il existe malheureusement un grand nombre de types d’explication possible en psychologie, davantage encore (et ce n’est pas peu dire) qu’en biologie, et bien davantage que dans les sciences exactes comme la physique ou la chimie théorique. La raison n’en est pas à chercher principalement dans des désaccords sur l’établissement des faits ou des lois : on finit tôt ou tard par s’entendre sur ce terrain, et, s’il existe encore des domaines assez larges où certains faits sont admis comme tels et considérés comme généraux avant les vérifications expérimentales (en psychologie clinique, par exemple), celles-ci finissent toujours par s’imposer. La diversité des explications tient un peu davantage à la coordination déductive des lois, non pas parce que les règles de déduction varient d’un auteur à l’autre, mais parce que, si certaines écoles font de grands efforts de cohérence déductive (par exemple les théories américaines contemporaines de l’apprentissage), d’autres s’en soucient beaucoup moins. Mais la raison principale (et de beaucoup) de la multiplicité des formes d’explication est à chercher dans la diversité des « modèles », ce qui présente au moins cet intérêt de vérifier la différence entre ce que nous avons appelé (sous II) la coordination logique et la coordination réelle dans les démarches de l’explication causale. Il faut d’ailleurs dire encore davantage : si les « modèles » possibles diffèrent pareillement entre eux, au point qu’ils encombrent parfois plus qu’ils ne favorisent le travail de l’expérimentaliste, cela tient essentiellement aux difficultés soulevées par la nécessité de donner une solution à la fois acceptable théoriquement et féconde (ou tout au moins commode) heuristiquement au problème des relations entre les structures des réactions conscientes et les structures organiques. On a beau nier la question, ou la dire dépassée, mal posée, etc., c’est toujours en définitive l’attitude que l’on prend à son égard qui en vient à commander le choix des modèles explicatifs : d’où leur diversité qui tient donc à la complexité du domaine propre de la psychologie plus qu’à l’incohérence des théories ou des méthodes.
Cela dit, cherchons à classer, du point de vue de la seule psychologie expérimentale, les principaux types d’explication auxquels peut recourir le chercheur, mais sans axer encore cette classification en fonction du problème du parallélisme psychophysiologique, car l’hypothèse que nous venons de faire sur le rôle de cette question demande à être vérifiée a posteriori et non pas à diriger a priori l’analyse qui va suivre.
Néanmoins, la première remarque qui s’impose à vouloir effectuer un tel classement est qu’il existe deux grands types ou du moins deux pôles dans les modèles explicatifs courants, selon a) qu’ils sont orientés vers une réduction du plus complexe au plus simple ou encore du psychologique à de l’extra-psychologique, ou selon b) qu’ils s’acheminent vers un constructivisme demeurant plus ou moins à l’intérieur des frontières de la « conduite ». Comme les modèles de type réductionniste peuvent eux-mêmes conserver
[p. 150]une tonalité surtout psychologique Ou au contraire tendre à réduire le mental à des réalités extérieures à un tel cadre, nous aboutissons en fait à trois grandes catégories (A-C) dont chacune des deux dernières comporte elle-même trois variétés :
A) Il y a d’abord ce que nous appellerons un réductionnisme psychologique et qui consiste à chercher l’explication d’un certain nombre de réactions ou de conduites variées dans la réduction à un même principe causal demeurant inchangé au cours des transformations. Nous trouverons un exemple de ces sortes d’explications par identification dans les travaux expérimentaux récents de psychanalystes d’inspiration freudienne sur le développement des relations « objectales ».
B) Nous distinguerons ensuite les diverses formes de réductionnisme tendant à expliquer les réactions ou les conduites en recourant à des réalités qui sortent des frontières de la psychologie. D’où trois variétés :
Bj) Les explications sociologiques en psychologie, ou psychosociales en général, qui tendent à interpréter les réactions individuelles en fonction des interactions entre individus ou des structures de groupes sociaux de diverses échelles.
B2) Les explications physicalistes qui, partant d’un isomorphisme entre les structures mentales et les structures organiques selon des modèles de champ, appuyent en définitive ces derniers sur des considérations physiques (par exemple les gestaltistes d’inspiration kœhlérienne).
Bs) Les explications organicistes en général, qui insistent sur les réductions du psychologique au physiologique.
G) On peut enfin considérer comme « constructivistes » les types d’explication qui, tout en faisant naturellement une part aux réductions (car c’est là au moins l’un des aspects de toute explication), mettent l’accent principal sur des processus de construction. Un tel caractère oppose ces formes d’explications au type A, mais les différencie également des variétés de B, car dans la mesure où l’on réussit à faire une part à des constructions dans le domaine des conduites ou des activités mentales, on atteint par cela même une certaine spécificité psychologique qui n’est plus réductible à des propriétés sociales, physiques ou organiques. Nous distinguerons à cet égard trois sortes de modèles :
CJ Les modèles du type « théorie du comportement » qui, malgré des différences aussi considérables qu’il en existe entre Hull et Tolman, par exemple, présentent ce caractère commun de coordonner les diverses lois d’apprentissage en des systèmes centrés sur l’acquisition de conduites nouvelles.
C2) Les modèles d’un type plus proprement génétique qui cherchent dans le développement certains mécanismes constructifs susceptibles de rendre compte des nouveautés sans faire simplement appel à l’expérience acquise.
[p. 151]Cs) Enfin les modèles dits « abstraits », non pas parce qu’ils renonceraient à tout substrat réel, au sens où nous avons présenté les causes (sous II) comme traduisant l’application de la déduction à de tels substrats, mais parce qu’ils se refusent à choisir entre les divers substrats possibles pour mieux dégager, sous la forme la plus générale compatible avec les exigences psychologiques, le mécanisme des constructions elles-mêmes.
Un tel tableau ne saurait naturellement prétendre à être à peu près complet, qu’à la condition de réserver une place possible aux situations intermédiaires. Il va de soi, d’autre part, qu’il ne concerne pas les méthodes que l’on pourrait appeler « préexplicatives ». Par exemple, la méthode dite d’analyse factorielle serait difficile à situer dans les catégories précédentes, mais cela avant tout parce qu’elle ne constitue pas en elle-même un modèle explicatif. En tant que technique, elle assure bien une transition possible du légal au causal, mais les « facteurs » une fois déterminés, le problème reste entier de leur conférer une signification explicative et l’on sait assez combien chaque auteur peut alors les utiliser dans une direction ou une autre : entre R. Meili, par exemple, qui combine l’analyse factorielle avec des schémas gestaltistes, les auteurs qui cherchent à coordonner la même analyse avec des schémas de « comportement » (Cj) et C. Spearman, créateur de la méthode factorialiste et auteur de la « noogenèse », il n’existe que peu de conceptions explicatives communes.
Cela dit, il convient d’examiner successivement chacune de ces sept catégories de modèles explicatifs, de manière à dégager de leur comparaison ce que celle-ci peut comporter d’aspects ou bien communs ou bien complémentaires.
1° L’explication par réduction psychogénétique🔗
Examinons brièvement à titre d’exemple de ce premier courant selon quel schéma les quelques freudiens expérimentalistes d’aujourd’hui (Hartmann, E. Kris, Spitz et K. Wolf, Glover, Th. Benedek, etc.) expliquent la formation des relations « objectales » durant les premiers mois du développement. Nous choisirons comme fil conducteur une belle étude de Th. Gouin-Décarie sur 90 sujets de 3 à 20 mois, soumis simultanément à des épreuves graduées sur la constitution du schème de l’objet permanent (ce qui a permis à l’auteur de retrouver sans aucune inversion la succession de nos stades de formation de 1’« objet ») et à des épreuves parallèles sur l’établissement des relations a objectales » au sens affectif et freudien du terme.
Nous avions soutenu jadis que l’explication freudienne constituait à cet égard un modèle d’« identification » meyersonienne : une même « énergie psychique » (la « libido ») d’abord centrée sur certaines activités organiques (stades oral puis anal) se déplace sur l’ensemble de l’activité propre (narcissisme) et finalement sur les personnes extérieures (choix de 1’« objet » et relations objectales), les nouveautés ne résultant ainsi que d’un déplacement
[p. 152]des charges affectives ou des investissements et non pas d’une structuration constructive. Il faut reconnaître qu’aujourd’hui la situation est bien plus nuancée, depuis la prise de position de Hartmann sur l’indépendance du système du « moi » et depuis les observations directes et les recherches expérimentales qui ont caractérisé le réexamen de ces premiers stades du développement affectif.
Dans les grandes lignes le schéma actuel s’appuye alors sur les trois stades suivants. En un premier stade, le nouveau-né serait centré sur lui- même mais sans encore aucune différenciation du moi. Les besoins physiologiques et les centres d’intérêt qui dérivent de ceux-ci peuvent cependant créer des « îlots de consistance » (Escalona) auxquels s’attache l’énergie psychique, mais non dissociés de l’activité même du sujet. Au cours d’un second stade, les réactions d’attente et certaines perceptions privilégiées (sourires) introduisent un début de frontières, mais mobiles, entre l’activité propre et ce que l’on peut appeler des « objets intermédiaires » tels que le « visage humain souriant » (Spitz). Enfin un troisième stade assurerait une différenciation stable entre le sujet et l’objet avec « éclosion de tous les éléments contenus à l’état de germe dans les étapes antécédentes » (Gouin) : d’où la conscience du moi et une « calhexis qui investit de véritables objets libidinaux » ; d’où également l’angoisse liée à la perte de l’objet d’amour, etc.
On voit alors qu’il y a bien structuration en même temps que différenciation des points d’investissement de l’énergie affective. De plus, cette structuration s’accompagne nécessairement de modifications cognitives importantes (attentes, attention, permanence de l’objet, etc.) que les auteurs prudents jugeront simplement parallèles aux transformations affectives, tandis que d’autres (Odier, par exemple) voudraient leur subordonner. Mais la question centrale, du point de vue du schéma d’explication en jeu est de comprendre comment s’effectuent de telles transformations affectives : or, il semble bien qu’il n’y a pas encore là de « construction » proprement affective, mais toujours identité dans le temps d’une même « énergie » constante, qui change simplement de points d’application ; le changement qualitatif serait censé résulter de ces seuls déplacements ou redistributions, avec « éclosion » et non par nouvelles compositions.
De deux choses l’une, par conséquent. Ou l’on restera fidèle à ce schéma d’identification, et l’identité de la « libido » ne fournira pas le principe d’explication du développement que l’on cherchera alors dans les transformations structurales d’ensemble (différenciation du moi, etc.), ou bien l’on coordonnera, lors de chaque transformation particulière, les processus de construction cognitive avec une construction proprement affective, ce qui reviendra aussi à dépasser les modèles d’identification. En un mot, l’explication par identification se complète et se corrige d’elle-même, sous l’influence des modifications internes du freudisme (1), dans la direction d’un constructivisme (cf. les modèles de type G, dans la direction C1 et C2).
(1) C’est pour montrer cette évolution interne que nous avons cité des freudiens restés orthodoxes, par opposition aux analystes anglais (Bowlby, etc.) et à Fromm, Alexander, Erikson, etc., et que nous ne nous sommes pas référé au meilleur théoricien de l’explication
2° L’explication par réduction psychosociologique🔗
Si l’identification demeure à elle seule insuffisante, à l’intérieur des frontières de la psychologie, c’est qu’il est dans la logique du réductionnisme de continuer à réduire par-delà toute frontière. On peut alors chercher à réduire par le bas (organicisme) ou pour ainsi dire latéralement, le sujet étant dès sa naissance en relation avec d’autres sujets : d’où les modèles explicatifs de type sociologique, par l’examen desquels nous allons continuer.
Un tel mode d’explication se retrouve aujourd’hui dans tous les domaines de l’affectivité élémentaire (psychanalyse dite culturaliste : Fromm, etc.) et des conduites en général (R. Benedict, M. Mead, etc.), jusqu’aux réactions cognitives (à partir de J. M. Baldwin et de P. Janet, jusqu’aux travaux de Vigotsky et Luria sur le rôle du langage, en passant par nos propres ouvrages de début) et aux conduites proprement sociales (sociométrie, etc.).
Le principe en est le suivant. Lorsqu’un comportement nouveau vient enrichir les précédents au cours du développement, il serait dû moins à une construction interne qu’à un apport résultant des interactions mêmes de la vie sociale. En ce sens, la réduction des conduites de l’individu à des structures sociales n’exclut pas les schémas de construction, mais celle-ci est déplacée sur le terrain des interactions collectives au lieu de tenir à des mécanismes exclusivement psychobiologiques. Lorsque P. Janet, par exemple, explique l’apparition de la réflexion (qui se superpose aux croyances immédiates ou asséritives) en invoquant la conduite sociale de la délibération ainsi que son intériorisation sous forme de discussion avec soi-même, il y a bien construction d’une conduite nouvelle, mais sur le plan interindividuel ou collectif, et la nouveauté d’une telle conduite est réduite à ce mécanisme extérieur sans dériver d’une construction interne à partir des conduites de niveaux antérieurs.
en psychanalyse, D. Rapaport. Il faut cependant indiquer ici le fait, intéressant pour la suite de ce chapitre, que l’explication psychanalytique s’oriente, avec D. Rapaport, sinon vers des modèles abstraits, du moins vers un physicalisme comportant les prolongements théoriques possibles de tout physicalisme un peu élaboré. Rapaport montre, par exemple, que la constance de la cathexis (quantité d’énergie psychique à disposition) peut donner lieu à deux hypothèses distinctes : ou que cette quantité est théoriquement constante avec variations infinitésimales dans le sens du théorème de d’Alembert, ou qu’il intervient des remplacements d’ordre physiologique qui compenseraient les pertes de la calhexis investie dans les structures et par conséquent « liée ». Dans les deux cas, il faut introduire une série de distinctions nouvelles et Rapaport reproche à Freud de n’avoir distingué qu’une calhexis mobile et une calhexis « liée » : il faut en outre, selon lui, différencier les structures qui réduisent la décharge entropique pour aboutir à la neutralisation de la calhexis, et les conditions structurales qui réduisent simplement la « déplaçabilité » de la calhexis pour la transformer en cathexis « liée ». En outre, si une quantité suffisante de calhexis est investie dans la formation d’une structure, une partie seulement en devient « liée » tandis que le reste est libéré : cette libération correspond alors à la mobilisation de l’énergie. Rapaport note enfin (tout cela dans une étude sur Attention calhexis, 1960, où il cherche à jeter un pont entre les processus affectifs et les structures cognitives élémentaires comme l’attention) que les structures activées par la calhexis sont modifiées et ultérieurement stabilisées, tandis que les structures non « cathexisées » pour une longue période perdent leurs caractères de stabilité et de cohésion : il y a ainsi, d’après cet auteur, parallélisme avec les conceptions de Piaget sur l’alimentation » des schèmes d’assimilation sensori-moteurs, les schèmes alimentés fournissant, par le fonctionnement qui en résulte, une alimentation aux autres.
[p. 154]Mais deux remarques sont à faire à propos d’un tel mode d’explication, qui ne reviennent pas à en contester pour autant la valeur. La première est que, tôt ou tard, il conduit à faire appel à un constructivisme interne en tant que nécessairement complémentaire de la construction collective. Par exemple, après avoir cru que la coopération interindividuelle suffisait à expliquer la formation des structures logiques au cours du développement de l’enfant (logique des relations fondée sur la réciprocité, etc.), nous avons été obligé dans la suite : a) d’admettre que cette formation supposait aussi, à titre de condition également nécessaire, un mécanisme constructeur interne fondé sur la coordination des actions du sujet et sur leur intériorisation en opérations ; b) de reconnaître que la coopération elle-même revenait de son côté à coordonner des actions et selon les mêmes lois opératoires que les coordinations intra-individuelles, de telle sorte qu’entre la coopération interindividuelle et ces coordinations il existe une relation circulaire et non pas une filiation à sens unique.
La seconde remarque est que, poussée à un certain degré de précision, l’explication sociologique (indépendamment même des réductions du psychologique au social) en vient à recourir à des modèles abstraits qui sont isomorphes à ceux dont on peut faire usage pour l’explication psychologique (voir III, sous C3). Toute l’œuvre de Cl. Lévi-Strauss, en particulier ses beaux travaux sur les relations de parenté, revient par exemple à appliquer aux relations sociales certaines des grandes structures de l’algèbre générale (réseaux, etc.) de telle sorte que l’explication sociologique se trouve alors coïncider avec une mathématisation qualitative de nature analogue à celle qui intervient dans la construction des structures logiques. Il est donc évident que le jour où la microsociologie concrète s’inspirera de tels modèles (en dépassant la conceptualisation naïve et à vrai dire nullement encore sociologique de la sociométrie de Moreno) (1), les réductions psychosociologiques ne requerront pas seulement un certain constructivisme mental (selon notre première remarque), mais encore se révéleront entièrement homogènes aux modes d’explication relevant des modèles dits abstraits.
3° L’explication par réduction physicaliste🔗
S’il est naturel qu’une réduction de direction latérale, comme est celle du psychologique au social, aboutisse en fin de compte à des schémas d’interaction et non plus de réduction simple (car tel est naturellement le sens des deux remarques terminant le paragraphe B1), on pourrait penser par contre qu’une explication par réduction du supérieur à l’inférieur marque cette fois une victoire décisive du réductionnisme. Un modèle particulièrement audacieux et élégant illustrant les tentatives de ce genre est celui des modes d’explication proposés par la théorie de la Geslalt, qui tendent non seulement à réduire les phénomènes mentaux (notamment de perception et d’intelligence) à des faits physiologiques, mais encore à subordonner
(1) Voir le chap. XXXIV de Maisonneuve qui expose les progrès réalisés à cet égard.
[p. 155]ceux-ci, par l’intermédiaire des schémas de champ, à des structures physiques : d’où certaines interprétations qui ramènent presque directement le psychologique au physique, comme dans le cas des « bonnes formes » perceptives qui se réduiraient aux structures de « Gestalts physiques » en tant que soumises comme elles à des principes d’équilibre et de moindre action.
Un exemple célèbre de ce mode d’interprétation est celui des after effects ou effets consécutifs, étudiés par Kœhler et Wallach et qui consistent en modifications des estimations de grandeurs ou de formes d’une figure perçue lorsque cette perception succède en une même région du champ visuel à la perception d’une figure différente. L’hypothèse explicative revient alors, une fois traduites les excitations en termes de différences de potentiel et les estimations de longueur en termes de résistance électrique des tissus, à relier les effets observés à des modifications de la satiation. En distinguant une satiation permanente (plus forte chez l’adulte que chez l’enfant), les augmentations momentanées et localisées de la satiation permanente dues à l’inspection des figures, le rétablissement de l’équilibre (plus ou moins rapide selon la force de la satiation permanente) par un processus homéostatique et enfin la sef/-satiation dépendant de la fixation du regard (moins bonne chez l’enfant, d’où une région plus étendue de satiation faible), on parvient ainsi à un schéma explicatif qui rend compte non seulement des effets observés mais encore de leur évolution avec l’âge. Il est seulement à noter que, sous l’influence de leur orientation physicaliste (Kœhler a été physicien et Wallach chimiste avant d’être psychologues), ces auteurs tendent à écarter toute intervention de l’activité fonctionnelle du sujet, sans utiliser les possibilités qu’ouvriraient à cet égard leur conception homéostatique de la satiation ni les relations entre la self-satiation et la centration du regard.
Notre rôle n’est point ici de juger de la valeur des théories mentionnées mais seulement d’analyser ce que comportent les modèles d’explication proposés. Nous nous bornerons à cet égard aux trois remarques suivantes.
La première est que si les modèles physicalistes constituent assurément un idéal d’une importance essentielle, ils s’imposeront sans doute de façon d’autant plus convaincante que la biologie nous y conviera elle-même et que la réduction possible de certaines structures psychologiques à certaines structures physiques passera par l’intermédiaire d’une réduction distincte et préalable des premières à des structures biologiques. A cet égard, il est possible que le recours aux formes d’équilibre spécifiques des champs masque souvent certaines formes d’équilibration par compensation active de la part du sujet : à constater par exemple avec quelle fréquence les constances perceptives aboutissent à des « sur-constances » (1), on est porté à invoquer des sur-compensations par précaution relevant de modèles biologiques plus que d’une balance physique exacte. Mais ceci ne nous éloigne pas nécessairement du physicalisme, on verra tout à l’heure pourquoi.
(1) Voir chap. XVIII sous VII.
(2) Le calcul de l’information est, en effet, calqué sur celui de l’entropie en thermodynamique.
[p. 156]En second lieu, si la remarque précédente semble de portée restrictive, on peut par ailleurs se proposer de prolonger le physicalisme en complétant par d’autres les modèles de Geslalt. Les références physiques des gestaltistes sont choisies dans le domaine des phénomènes à compositions non additives, donc irréversibles. Or, Planck a montré que la dichotomie la plus importante qui intervient en physique est celle des phénomènes irréversibles (par exemple thermodynamiques) et des phénomènes réversibles (cinématiques et mécaniques). Si l’on désire donc utiliser à plein rendement les analogies physiques, on sera conduit à retrouver en psychologie une division analogue, qui opposera alors les structures d’ensemble à composition additive et réversible (structures opératoires de l’intelligence) aux structures élémentaires qui sont les Gestalls. Ceci n’est plus conforme à la théorie gestaltiste mais s’inspire assurément d’un physicalisme élargi.
D’où notre troisième remarque. Ce qui est le plus intéressant pour la psychologie dans les références à la physique n’est peut-être pas la réduction proprement dite d’une structure mentale (par exemple perceptive) à une structure physique (par exemple de champ électromagnétique), mais l’analogie entre le mode de composition intervenant dans la première et le mode de composition utilisé par le physicien pour atteindre la connaissance de la seconde. A cet égard, la coupure entre les phénomènes irréversibles et réversibles est aussi une coupure entre le domaine des explications surtout probabilistes et celui de la déduction simple. Les analogies physicalistes suggèrent donc non seulement des réductions proprement dites, mais aussi l’utilisation de modèles abstraits. On sait en particulier quelle étroite parenté existe entre les schémas explicatifs de la thermodynamique et ceux qu’utilisent la théorie des jeux ou de la décision et celle de l’information (2). Or, c’est précisément dans cette direction que plusieurs auteurs cherchent aujourd’hui leurs modèles explicatifs dans le domaine perceptif (1) et ce que nous avons rappelé à l’instant des sur-constances perceptives relèverait facilement de tels modèles (en tant qu’exemple de « décisions » par précaution contre l’erreur possible ou la perte d’information).
En bref, les deux avantages à retenir de la réduction physicaliste sont, d’une part, les précisions qu’elle peut en certains cas ajouter à la réduction organiciste et, d’autre part, l’ouverture qu’elle favorise sur certains modèles abstraits parmi les plus féconds dont on dispose aujourd’hui.
4° L’explication par réduction organiciste🔗
Avec l’effort de réduction des phénomènes mentaux aux réactions physiologiques, nous rejoignons la plus grande tradition de la psychologie expérimentale. Pour un grand nombre d’auteurs, le domaine psychologique constituant la zone d’interférence entre le biologique et le social, le mode privilégié d’explication réservé au psychologue, sur les points où il n’est pas
(1) Par exemple W. P. Tanner et son équipe pour la théorie des seuils (voir plus loin sous Cs).
[p. 157]subordonné à la sociologie, sera donc la réduction du supérieur à l’inférieur, c’est-à -dire l’assimilation aux modèles physiologiques.
On pourrait multiplier les exemples de telles réductions, en remontant jusqu’aux travaux de Helmholtz et de Hering sur la perception. Choisissons celui qui est peut-être le plus classique, mais aussi le plus instructif quant à l’idée centrale défendue en ce chapitre, celle de la complémentarité des modèles de réduction et des modèles constructivistes « abstraits ». La psychologie associationniste dont sont issus, malgré son mécanisme simpliste, les travaux ultérieurs de la psychologie expérimentale, cherchait à réduire l’ensemble des structures mentales au mécanisme supposé élémentaire de l’association. Mais comment rendre compte de ce dernier, notamment sous sa forme la plus simple de l’association par contiguïté ? La réponse a d’abord été cherchée par réduction à des modèles physiologiques simplement verbaux (frayages, etc.), puis elle a été donnée de façon décisive par Pavlov avec ses réflexes conditionnés, considérés par lui comme « complètement identiques » aux « associations des psychologues » et comme recouvrant même « ce que le génial Helmholtz a désigné [dans le domaine des perceptions] sous le terme célèbre de conclusion inconsciente ».
Mais le propre d’une réduction est de soulever de nouveaux problèmes par régression indéfinie et, pendant que les psychologues découvraient la complexité de plus en plus grande des apprentissages associatifs (rôle des anticipations, des renforcements, de la motivation, problèmes de stabilité, etc.), les physiologistes poursuivaient leur travail en cherchant à répondre aux nombreuses questions laissées en suspens par l’interprétation encore hypothétique de Pavlov (les notions d’irradiation, d’induction, etc., ne dépassant qu’à peine le cadre de la légalité). Sans rappeler les techniques nouvelles qui ont permis de faire progresser cette analyse (notamment électrophysiologiques), bornons-nous à mentionner, d’après un beau rapport de A. Fessard et H. Gastaut, les deux principaux thèmes de recherches abordés : d’une part, le rôle des grandes structures anatomo-fonctionnelles (formation réticulaire, intégration diencéphalique et système associatif cortical), d’autre part, l’interprétation à l’échelle des structures neuroniques.
Or, à ne retenir que ce dernier point, il est du plus haut intérêt pour la théorie des modes d’explication d’examiner comment procèdent les auteurs pour rendre compte du fait qu’un signal s, habituellement associé à une réponse r, peut se substituer au signal inconditionné S pour aboutir à la réaction R. D’un côté, l’expérience fournit un ensemble d’informations essentielles mais limitées : par exemple qu’un apprentissage (au moins chez l’adulte) ne peut pas dépendre de la croissance de nouveaux rameaux nerveux terminaux ou de la formation de nouvelles synapses, mais seulement d’un nouveau fonctionnement de connexions déjà formées ; que le conditionnement suppose une structure de type réticulaire comportant de nombreuses cellules à ramifications étoilées, etc. Mais, d’un autre côté, il s’agit de relier ces informations en un schéma explicatif. Or, ou bien le schéma à construire est d’emblée imaginé sous la forme d’un modèle mécanique artificiel montrant simplement (mais avec combien d’ingéniosité 1) à quelles conditions le
[p. 158]résultat à expliquer pourrait être obtenu : telles sont, par exemple, les fameuses « machines » de Grey Walter. Ou bien, on construit un modèle théorique de champ réticulaire de neurones, comme le beau réseau présenté par Fessard, dont tous les éléments ont des propriétés identiques (d’où le rôle d’une détermination historique pour le choix des chemins préférentiels), mais avec possibilité d’introduire une certaine stabilité homéostatique malgré les substitutions d’itinéraires. Il va alors de soi que de tels modèles (et les seconds comme les premiers) soulèvent un ensemble de questions logico- mathématiques, les unes de structure et les autres de dynamique, dont Fessard souligne lui-même l’interdépendance.
Du point de vue dynamique, en premier lieu, il s’agit d’expliquer le pourquoi des itinéraires et l’on recourt alors naturellement à un schéma probabiliste, le réseau de Fessard étant présenté par lui comme un « réseau stochastique subordonné », stochastique parce qu’à chaque élément neuronique du système s’attache une certaine probabilité de décharge, elle-même fonction du temps, et subordonné parce qu’il est connecté avec d’autres champs neuroniques analogues dont il subit les influences (et A. Rapaport, Shimbel, etc., ont cherché à pousser le traitement mathématique de problèmes analogues).
Du point de vue de la structure, en second lieu (toute structure étant conçue d’un point de vue génétique comme alternativement facteur ou produit de fonctionnements dynamiques), il va de soi que le choix d’un modèle de « réseau » entraîne un ensemble de conséquences fondamentales, car un « réseau » est l’une des structures les plus représentatives de l’algèbre générale (logique et mathématique), et une structure dont dérive notamment la logique des propositions. Il convient à cet égard de rappeler que W. McCulloch et Pitts ont précisément indiqué en quoi les diverses combinaisons de liaisons neuroniques sont isomorphes aux liaisons logiques interpropositionnelles (1) (et de façon générale à celles de l’algèbre de Boole), ce qui suffit à montrer comment un modèle de réseau rejoint tôt ou tard les plus audacieux des modèles « abstraits ».
En bref, un tel exemple indique assez en quoi la réduction organiciste n’a rien de contradictoire avec le recours aux modèles abstraits pour cette raison très simple que, dans la mesure où la neurologie tend à être précise (qu’elle se double ou non de tentatives mécanophysiologiques), elle débouche sur des problèmes de probabilité et d’algèbre générale. C’est pourquoi un de nos collaborateurs, revenant d’une visite à l’équipe de McCulloch, décrivait ces chercheurs comme assis chacun entre deux tables, l’une sur laquelle il examinait au microscope des ensembles de neurones et l’autre où il poursuivait des calculs logistiques.
Mais, indépendamment même des modèles abstraits auxquels peuvent conduire les explications organicistes, il est important pour les psychologues de relever l’existence, chez les biologistes et les neurologistes, d’une tendance générale à substituer aux schémas associationnistes des structures homéo-
(1) Conjonction, disjonction, incompatibilité, exclusion, implication, etc.
[p. 159]statiques à base de régulations. Même le prétendu « arc » réflexe (dans le cas des réflexes absolus et non plus conditionnés) n’est plus considéré comme un arc du type classique stimulus-réponse, mais comme un servomécanisme, donc un système homéostatique à feed-backs. K. H. Pribram a, d’autre part, pu mettre en évidence la présence d’un contrôle cortical des inpuls, «  qui arrange préalablement le mécanisme récepteur de telle sorte que certains inpuls deviennent des stimulus que et d’autres puissent être négligés (1) ». Il est alors clair que, généralisant ainsi le rôle et la multiplicité des systèmes régulateurs, la neurologie s’engage dans la même direction que l’analyse psychologique des conduites, puisque toute action en son développement, dès la formation des premières habitudes jusqu’à la constitution des opérations, procède par essais constamment corrigés ou renforcés (feed-backs négatifs ou positifs), et comporte ainsi à titre essentiel des mécanismes régulateurs et autorégulateurs (dont l’opération elle-même représente l’aboutissement en tant que régulation « parfaite » avec précorrection des erreurs et non plus élimination après coup). De ce fait résultent deux conséquences. La première est que les « réductions » organicistes sont de moins en moins réductrices, et suggèrent au contraire un système de paliers hiérarchiques avec interactions possibles entre les étages ou tout au moins avec de constantes analogies fonctionnelles : d’où des explications par assimilations réciproques et non plus par assimilations déformantes du supérieur à l’inférieur. La seconde est que, dans la mesure où, sur le terrain organique lui-même, les systèmes régulateurs tendent à dominer les programmations héréditaires, il devient nécessaire d’ajuster à cette donnée fondamentale les explications par l’innéité, comme nous le verrons dans la suite.
5° L’explication par le comportement🔗
Les trois sortes de modèles explicatifs qu’il nous reste à examiner ne rejettent aucune des formes de réduction précédentes, mais les complètent par un constructivisme spécifiquement psychologique, s’appuyant sur les lois du seul comportement (Cj), d’un développement à la fois génétique et mental (C2) ou sur des structures abstraites impliquant les conduites mentales (C3).
On peut d’abord ne se référer qu’au seul comportement, ce qui implique bien entendu un organicisme sous-jacent, mais ce qui introduit en plus la notion d’une construction de structures nouvelles envisagées à un échelon supérieur. Par exemple l’un des concepts centraux de la théorie de l’apprentissage de G. Hull, qui est celui des « familles hiérarchiques d’habitudes », correspond à une structure globale dont le pouvoir explicatif est relativement indépendant des réductions organicistes possibles, non invoquées spécifiquement dans le schéma de l’explication. De même les sign-gestall-expeclations de Tolman comportent l’organisation d’un ensemble de relations, au niveau également global du comportement, entre un signifiant, un signifié et l’anti-
(1) Congrès international de Psychologie de Moscou, vol. XVIII, p. 184.
[p. 160]cipation du fait que tel comportement conduira de tel aspect à tel autre aspect du champ structuré.
En quoi consiste alors l’explication comme telle, à cet échelon supérieur au niveau des liaisons nerveuses ? Ces dernières demeurant, selon Hull, hypothétiques et simplement inférées (tout au moins celles auxquelles il se réfère lui-même), elles ne constituent alors que des variables intermédiaires entre le milieu physique et les réactions observables qui caractérisent le comportement : ce que doit assurer l’explication, c’est donc la liaison causale entre les conditions du milieu et ces réactions observables. Mais en quoi consiste cette causalité elle-même ?
A lire C. Hull, dont le système interprétatif est de beaucoup le plus poussé, on éprouve au premier abord l’impression de n’être en présence que de lois, sans référence à une causalité : ce sont les lois des associations elles-mêmes, de la réduction du besoin, des renforcements (succès, etc.) qui consolident les associations, des gradients de but (accélération des réactions proches du but poursuivi), de la formation et de la hiérarchisation des familles d’habitudes, etc. Mais, ici comme partout, la causalité réside en la connexion déductive entre ces lois, déduction appliquée à un substrat représenté comme réel et qui est en l’occurrence l’ensemble des notions décrivant les réactions à l’échelle du comportement (ce que les théoriciens du comportement appellent la « conceptualisation » par opposition aux lois elles-mêmes). En quoi consiste alors cette déduction des lois, dans le système de Hull, déduction qui est donc la partie opérante de l’explication proprement causale ?
Hull et ses continuateurs ont donné à cette question précise trois réponses successives. La première a consisté à coordonner simplement les lois obtenues, en se servant sans plus du langage courant, c’est-à -dire en utilisant ce mode de déduction que les logiciens appellent (avec quelque superbe) une déduction « naïve ». Il s’y ajoutait cependant un pressentiment de la seconde réponse, puisque Hull, sans construire encore un schéma probabiliste, indiquait toujours dans sa première construction, les fréquences en jeu avec un nombre de décimales souvent déconcertant.
La seconde réponse a été fournie par Bush et Mosteller dans une étude fondamentale ébauchant une théorie probabiliste de l’apprentissage. En ce cas, la déduction des lois est présentée more mathematico : étant donnée telle situation caractérisée par tels paramètres, on peut en déduire moyennant telles lois que la probabilité d’apprentissage se conformera à tel mode de calcul.
La troisième réponse a été fournie par Hull lui-même qui, à la suite des discussions provoquées par son exposé au Congrès international de Psychologie à Paris en 1938, est rentré en passant par l’Angleterre pour y trouver le logicien Woodger, spécialiste de l’axiomatique des théories biologiques : sous son influence, Hull a décidé de construire avec l’aide du logicien Fitsch une formalisation de son système explicatif. Il en est résulté une théorie déductive more logico qui cette fois présente d’une manière entièrement explicite toutes les articulations du système. On a montré depuis qu’il est
[p. 161]facile de formaliser de même le système de Tolman, et notre collaborateur L. Apostel a publié dans les Études d’Épistémologie génétique une belle étude d’ensemble fournissant entre autres l’esquisse d’une sorte d’algèbre de l’apprentissage et dégageant les lois formelles des opérateurs en jeu dans les interprétations de ce genre.
Il est ainsi d’un certain intérêt de constater que l’un des courants d’idées les plus strictement expérimentalistes de la psychologie en est venu à recourir à deux sortes de modèles abstraits, l’un de nature probabiliste et dégageant une causalité de nature statistique, l’autre de nature logistique et mettant en évidence les liaisons déductives des systèmes explicatifs. Il va de soi, d’autre part, que cet appel à des schémas déductifs ne contredit en rien l’aspect réductionniste de ces systèmes, puisque (nous l’avons vu sous B3) les réductions éventuelles aux liaisons nerveuses soulèvent à cette échelle inférieure des questions d’explication pour la solution desquelles il peut être nécessaire de recourir à des schémas probabilistes ou algébriques de nature analogue.
Quant aux aspects plus ou moins constructivistes ou réductionnistes des explications propres au behaviorisme, on a pu assister en ces dernières années à une évolution qui est pleine d’intérêt du point de vue de la causalité psychologique. Sous sa forme initiale, de Watson à Hull, le behaviorisme présente un minimum de constructivisme, avec l’élaboration des conduites acquises consistant essentiellement en habitudes et familles d’habitudes, et un maximum de réductionnisme avec le schéma stimulus-réponse qui subordonne ces conduites aux contraintes exogènes imposées par le milieu : d’où la conception que Hull se donne des réponses en tant que « copies fonctionnelles » des stimulus, ce réductionnisme revenant donc à subordonner le sujet aux objets. Avec les Signgestalls de Tolman, le sujet devient un peu plus actif en organisant en partie son milieu, mais le primat de l’exogène demeure essentiel. Or, il s’est trouvé depuis lors qu’un ensemble d’auteurs, que l’on peut appeler néo-behavioristes, ont été conduits à découvrir une série de faits qui ébranlent de plus en plus ce primat et semblent infléchir les explications antérieures de leur école dans la direction d’une causalité endogène liée aux activités du sujet.
Il convient tout d’abord de rappeler la célèbre formule de H. F. Harlow « apprendre à apprendre », qui décrit un mécanisme à la fois très général et irréductible aux trois concepts clés des théories behavioristes de l’apprentissage : stimulus spécifiques, réponses déterminées par eux et renforcements externes favorisant ou inhibant leurs liaisons. En effet, apprendre à apprendre implique un transfert cumulatif, mais non spécifique, d’une forme de discrimination à une autre, ce qui paraît plus proche de ce que nous appelons l’alimentation des schèmes et leurs coordinations par assimilations réciproques partielles que du schème SR, et ce qui s’engage donc dans la direction d’une causalité endogène.
Dans la même orientation s’inscrivent les travaux de B. Berlyne sur le rôle de la curiosité et de l’intérêt dans le succès des apprentissages et sa distinction des réponses-copies du type hullien et des réponses-transformations
PSYCHOL. EXP., I 6
[p. 162]transformant une réponse-copie en une autre. Or, Berlyne admet, en ce qui concerne les premiers de ces facteurs, qu’il s’agit bien de renforcements internes et non plus externes, ce qui comporte une dimension fonctionnaliste et par conséquent l’intervention de facteurs endogènes et non plus exclusivement soumis aux actions des objets. Quant à ses « réponses transformations » elles ont pour signification explicite d’incorporer dans le langage et la conceptualisation behavioristes ce que nous appelons « opérations » : or il est difficile d’interpréter celles-ci sans recourir à des mécanismes endogènes.
Il en est de même de la notion de « médiation », utilisée par H. et T. Ken- dler en d’intéressants travaux sur les renversements d’apprentissage (sans parler des « médiations » d’Osgood dans le domaine du langage) : s’agissant, par exemple, de choisir un petit carré après avoir appris à préférer le grand, ou un grand carré blanc après un petit noir, ces renversements sont faciles dès 8 ans, tandis qu’auparavant ils nécessitent un nouvel apprentissage. Les Kendler y voient donc avec raison l’intervention d’un nouveau facteur qui est médiateur en tant qu’intervertissant l’effet des stimulus : or son caractère opératoire et donc endogène paraît évident puisqu’il implique un classement avec négations. Il en va de même des changements de codage invoqués par P. Bryant pour expliquer les conservations lors des transvasements de liquides, selon que ces codages demeurent relatifs aux positions dans le récipient ou tiennent compte des variations spatiales selon les deux dimensions verticale et horizontale.
En bref l’explication behavioriste a évolué sur deux points essentiels. En premier lieu les faits ont montré que le développement mental ne se réduit pas à une succession d’apprentissages de mêmes formes et tous subordonnés à la contrainte exogène des stimulus, mais que les apprentissages se modifient au contraire en fonction de constructions endogènes propres au développement, ce que B. Inhelder, H. Sinclair et M. Bovet ont pu vérifier expérimentalement stade par stade (1). En second lieu le schème stimulus- réponse n’est pas à sens unique (S -> R), car le sujet n’est sensible à un stimulus (selon des « compétences » variant avec les niveaux) que dans la mesure où il l’assimile à des schèmes qui seront la source des réponses (d’où SR). Le problème causal essentiel est donc celui de la construction des schèmes.
6° L’explication par construction génétique🔗
Pour les premiers théoriciens de l’apprentissage, celui-ci était donc censé rendre compte du développement mental en son ensemble, sauf en ce qui concerne les effets de la maturation, alors considérés comme se combinant de diverses manières avec les lois de l’apprentissage. Pour certains théoriciens du développement, au contraire, la maturation et l’apprentissage en fonction du milieu ne constituent que deux des facteurs en jeu, sans que ceux-ci épuisent l’ensemble des constructions possibles. Sans s’effrayer, d’autre part, d’un certain « mentalisme » que proscrivent les théoriciens
(1) Loc. cit., Presses Universitaires de France, 1974.
[p. 163]précédents, ils substitueront au seul comportement la notion de « conduites » qu’ils définiront avec P. Janet et bien d’autres, comme le comportement plus les actions intériorisées s’accompagnant de diverses formes de « prise de conscience ». Il résulte alors de ces quelques nuances qu’on se trouvera en présence de modes d’explication distincts du précédent (III sous et également distincts des diverses variétés de réductionnisme (A à B3).
Il faut citer en premier lieu E. v. Holst, K. Lorenz et N. Tinbergen, représentants d’une école de psychologie comparée qu’on appelle « éthologie » ou encore « objectivisme » et dont l’idée centrale est psychophysiologique : c’est la notion d’une « activité spontanée » de l’organisme, distincte de toute a réponse » et se manifestant dans divers mouvements rythmiques déjà étudiés par Adrian aussi bien que dans les mouvements d’ensemble du nouveau-né de l’homme. Mais si ces auteurs insistent sur l’activité de l’organisme et sur celle du sujet psychologique, ils ne négligent pas pour autant le milieu et la théorie des « déclencheurs innés » des instincts (signaux perceptifs héréditaires ou spécifiques qui déclenchent par exemple la poursuite de la mère chez les poussins, les canetons, etc.) fait intervenir une étroite interaction entre l’objet et le sujet dont la causalité subtile mériterait une analyse détaillée.
Mais, pour faciliter le parallèle avec les théoriciens de l’apprentissage humain, on nous permettra de nous citer nous-même en exemple de cette forme C2 d’explication, car si nous avons insisté également sur cette activité du sujet (et essentiellement dans les structurations cognitives), nous avons surtout essayé d’en tirer une explication du développement intellectuel. Nous aimerions donc dégager en quelques mots la forme particulière d’explication causale dont nous nous sommes servi.
Étant donné que les actions du sujet présentent dès le départ une structure (initialement pauvre, mais alors réglée héréditairement), les réactions au milieu seront, d’une part, des réactions d’assimilation tendant à incorporer les objets à ces structures et, d’autre part, des réactions d’accommodation tendant à modifier, c’est-à -dire différencier les mêmes structures en fonction des situations. D’où, dès le départ, la nécessité d’un processus d’équilibration aboutissant à des combinaisons diverses d’assimilation et d’accommodation. L’équilibration consistant ainsi à compenser les perturbations extérieures jusqu’à incorporation aux structures initiales ou en voie de transformation, il en résulte que les constructions successives dues à ces interactions s’appuyeront sur des régulations de plus en plus complexes intervenant dans la coordination des actions. Orientées dès le départ vers une réversibilité approximative, ces régulations se traduiront en fin de compte par des systèmes d’opérations, ou actions intériorisées se coordonnant de façon réversible et ce serait à cette construction d’opérations que serait due la succession des divers paliers de l’intelligence.
Ainsi orientée vers la construction de structures opératoires, une telle interprétation en vient donc à retrouver les structures logico-mathématiques, mais il est essentiel de noter qu’il ne s’agit point alors d’une logique préétablie et utilisée par le psychologue, comme dans la formalisation du système de
[p. 164]Hull : il ne s’agit ici que des opérations et de la logique du sujet lui-même, le problème central ayant été dès le début de savoir comment elle se construit. Avant de recourir à des modèles abstraits, il a donc été tenté de fournir une explication causale génétique et le modèle utilisé a consisté à recourir, par-delà la maturation, l’apprentissage et les influences sociales, à l’équilibration elle-même conçue comme un processus séquentiel de nature à la fois autorégulatrice et probabiliste. L’équilibration par régulation est indispensable du fait que les actions spontanées ou imposées par le milieu exigent sans cesse de nouvelles accommodations aux objets et de nouvelles coordinations entre elles, exposées toutes deux à de multiples perturbations qu’il s’agit de neutraliser, ou présentant des lacunes à combler : d’où la nécessité de régulations continuelles par corrections ou renforcements, sources de compensations (qui, du point de vue cognitif, se traduisent entre autres par celles des négations et affirmations). Les trois étapes de ces compensations, qui s’expliquent elles-mêmes par l’obligation d’équilibrer les assimilations et accommodations, sont alors : 1° les conduites visant à éliminer simplement les perturbations, ou à les ignorer par des sortes de refoulements ; 2° les déplacements d’équilibre visant à intégrer les perturbations par la formation de sous-systèmes ; et 3° les conduites assimilant ou transformant les perturbations en variations internes du système avec alors compensation exacte des affirmations et négations (celles-ci portant entre autres sur les différences entre les sous-systèmes). En un mot, l’explication par équilibration s’appuie sur le processus des régulations compensatrices qui, en équilibrant finalement les négations et affirmations aboutissent à la commutabilité (voir plus haut) et à la réversibilité opératoire en général, et cela en procédant en outre à de continuelles reconstructions endogènes des données exogènes, ce qui rend inséparables les compensations et les constructions.
Mais il s’y ajoute une dimension probabiliste telle, non pas que l’état final soit le plus probable dès le départ, mais que chaque étape devienne à tour de rôle la plus probable en fonction de la précédente (et la première en fonction des observables du début), ce qui constitue une suite séquentielle (1) de probabilités modifiables. Dans le cas de la commutabilité, par exemple, la réaction initiale la plus probable est la centration sur le seul point d’arrivée du déplacement, d’abord parce que celui-ci est dirigé vers un but dont l’intérêt l’emporte sur celui du point d’origine, et ensuite parce qu’il est plus facile de penser à une seule situation qu’à deux à la fois : d’où le changement de forme conçu comme production. Cela étant, la seconde réaction devenant alors la plus probable (sans donc l’avoir été auparavant) est la constatation que cette apparente production s’accompagne d’une diminution selon une autre dimension (amincissement, etc.) : d’où la probabilité croissante de concevoir ces deux variations de sens inverse comme solidaires, puis la probabilité d’un début de centration sur la transformation comme telle. C’est alors, mais alors seulement, qu’une nouvelle relation devient probable :
(1) « Séquentiel » se dit d’une suite dont chaque étape est nécessaire à la formation de la suivante.
[p. 165]celle d’une compensation entre ce qui est enlevé au début du déplacement et ce qui est ajouté à son terme.
Que ce schéma causal de l’équilibration débouche sur un modèle probabiliste abstrait, et sur des modèles algébriques ou logiques, on le constate donc, mais il nous reste à établir en vertu de quelle nécessité interne il en est toujours ainsi, ce que nous allons tenter (sous 7°) sur un plan plus général.
Mais il reste auparavant à signaler un problème qui n’a cessé de se poser pour les explications par construction génétique et qui s’est renouvelé avec les travaux de T. Bower : celui de l’inné et de l’acquis, les caractères innés pouvant se manifester dès la naissance ou de façon successive en fonction de la maturation du système nerveux. Ce dernier facteur, quoique encore assez mal connu, intervient à coup sûr, ce que semble entre autres indiquer le caractère séquentiel des grands stades opératoires, que les études comparatives ont jusqu’ici retrouvé en des civilisations bien différentes ; mais le fait que, selon les milieux, il peut y avoir de notables retards ou accélérations quant aux âges moyens de formation montre que l’exercice et les incitations sociales jouent un rôle aussi important, sinon plus. Par contre, Bower a pu mettre en évidence, tôt après la naissance, certaines conduites innées, mais qui disparaissent ensuite pour donner lieu bien plus tard à une reconstruction qui les dépasse. Dans le domaine des coordinations entre la vision et la préhension, Bower constate ainsi qu’à 11 jours les bébés tendent la main et la serre contre un objet qu’ils voient et la preuve qu’il y a bien là une finalité et que si on remplace le solide par une image due à un polaroïde, ils font de même et pleurent de déception en découvrant qu’ils ne touchent rien. Or cette conduite disparaît ensuite, pour donner lieu vers 4 ½ - 5 mois à la préhension systématique dont nous avons décrit les étapes. Bower se déclare donc ni empiriste, ni innéiste, mais constructiviste, et constate que l’ébauche innée disparaît s’il n’y a pas d’exercice ; quant à celui-ci, si on le provoque au moment de la coordination innée, il se borne à accélérer quelque peu les constructions ultérieures, mais après le même effacement durable du comportement initial. De ces faits très curieux on peut tirer ce qui suit du point de vue de l’explication du développement : 1° certaines conduites d’importance fonctionnelle peuvent être préparées par des préformations innées ; 2° celles-ci s’effacent si elles ne sont pas intégrées dans le comportement général ; 3° elles ne suffisent donc pas à expliquer les constructions ultérieures bien que jouant un rôle en leur déroulement ; 4° le fait essentiel est alors la nécessité d’une reconstruction continuelle, palier par palier, de ce qui restait inachevé au palier précédent ; 5° ces reconstructions sont le résultat d’autorégulations dominant les facteurs héréditaires et se les intégrant.
Il n’empêche que l’innéisme revient à la mode en certains milieux, en particulier sous l’influence du linguiste N. Chomsky qui croit, malgré les aspects constructivistes de ses « grammaires transformationnelles », à l’existence d’un « noyau fixe inné » contenant les relations logico-linguistiques les plus générales, telles que celle de sujet à prédicat. Or, admettre cette innéité se borne à renvoyer le problème de l’explication à la biologie, où il est actuel-
[p. 166]lement insoluble : expliquer les rapports de sujet à prédicat par le hasard et la sélection naturelle le priverait de toute nécessité logique (ce que reconnaît K. Lorenz pour les a priori héréditaires qu’il attribue à la connaissance, mais ramène prudemment à de simples « hypothèses de travail innées ») et de plus demeure en ce cas une interprétation toute verbale faute de la moindre preuve. D’autre part, les caractères attachés à ce « noyau fixe inné » s’expliquent par le développement de l’intelligence sensori-motrice, antérieure au langage, et c’est ce que soulignent aujourd’hui tous les auteurs d’abord séduits par l’hypothèse de Chomsky (R. Brown, E. H. Lenneberg, D. McNeill, etc.).
7° L’explication fondée sur les modèles abstraits🔗
Si l’explication causale consiste à déduire les lois qui relient des objets représentés en fonction d’un certain substrat de réalité, et si elle suppose ainsi les trois conditions : 1° d’être en possession de lois ; 2° de choisir un schéma de déduction et 3° de choisir un substrat auquel s’applique la déduction (société, système nerveux, comportement, conduites, etc.), on peut alors définir de deux manières distinctes l’explication fondée sur les modèles abstraits, l’une plus générale et l’autre particulière :
a) De façon générale, on dira que l’on recourt à des modèles abstraits lorsque, au lieu de se contenter, comme schéma de déduction (élément n° 2 de l’explication), de la déduction « naïve » fondée sur le langage courant, on choisit un schéma déductif de caractère technique, emprunté aux mathématiques probabilistes (théorie classique des probabilités, théorie des jeux ou de la décision, théorie de l’information, etc.) ou à l’algèbre générale comprenant l’algèbre de Boole et la logique (théorie des réseaux, théorie des groupes, logique formalisée des propositions, etc.). Selon cette acception générale, le recours aux modèles abstraits vient donc simplement compléter l’une des formes quelconques d’explication envisagées jusqu’ici, sitôt que l’on désire atteindre un degré de précision supérieur à celui de la déduction courante. Ce recours signifie d’abord que l’on substitue un langage exact au langage ordinaire, mais il conduit ensuite naturellement à de nouveaux développements dans l’explication, dans la mesure où le schéma de déduction choisi comporte la considération de relations spécifiques utiles à cette explication : l’introduction d’une structure de « réseau » ou de « groupe » fera par exemple apercevoir un ensemble très riche de relations bien déterminées non nécessairement remarquées jusque-là . Mais, selon cette définition a), l’introduction du modèle abstrait ne change rien au substrat 3 choisi au préalable : il s’agira toujours des mêmes relations nerveuses, du même comportement, etc., envisagés en leur détail.
b) De façon plus particulière, on parlera d’une explication par modèle abstrait lorsque, pour un ensemble de lois ou faits généraux 1, on utilise un schéma déductif technique 2, mais sans choisir un substrat réel déterminé 3 et en essayant de lui substituer ce qu’il peut y avoir de commun aux différents
[p. 167]modèles possibles. Si ce modèle est lui-même « abstrait », ce terme d’« abstrait » signifie donc alors simplement « commun aux différents modèles réels concevables ». L’idéal de l’explication consistant à dégager les conditions nécessaires et suffisantes d’un ensemble de faits, le modèle abstrait 3 vise donc à atteindre ces conditions, et, même s’il n’atteint pas cette généralité, il parvient tout au moins à dégager un certain nombre de conditions suffisantes. Par exemple, lorsque, pour expliquer les effets perceptifs de surestimation par centration, nous nous servons d’un schéma de probabilités de « rencontres » (entre les segments élémentaires de la ligne perçue et les éléments des organes récepteurs du sujet) et de « couplages » (ou correspondances entre rencontres sur des régions différentes de la figure, ces rencontres pouvant n’avoir pas la même densité selon ces régions), nous nous refusons, faute de données de fait certaines, à préciser si ces rencontres tiennent à la densité des cellules de la rétine, au nombre des micromouvements d’exploration du globe oculaire, etc., et même à préciser si les « couplages » sont dus à des liaisons nerveuses ou demeurent des abstractions traduisant les mises en relation de la perception consciente du sujet : sans donc choisir le substrat réel 3 en jeu, mais en cherchant ce qu’il y a de commun aux divers substrats concevables, le modèle utilisé suffit à rendre compte des lois observées et c’est là ce qui justifie son emploi, car, s’il est correct, il s’appliquera tôt ou tard à l’un des substrats réels actuellement concevables.
Sous ces deux formes a) et b), l’explication par modèles abstraits rend alors trois sortes de service. En premier lieu elle rend précises des déductions sinon imprécises : c’est ce genre de service que Hull a demandé à la formalisation logique de sa théorie, et il n’en a rien tiré d’autre, mais cela constitue déjà un progrès dans l’explication puisque celle-ci consiste en une déduction des phénomènes.
En second lieu, le schéma abstrait permet de découvrir des relations nouvelles entre faits généraux ou lois auparavant non comparables. Par exemple, on observe dans le développement des opérations intellectuelles de l’enfant (voir sous C2) une série de constructions nouvelles se produisant dès entre 11-12 ans : apparition de la notion de proportions, des doubles systèmes de référence, compréhension des relations physiques entre actions et réactions, etc. En apparence rien n’explique la simultanéité de ces productions dont on n’aperçoit pas la parenté. Mais nous avions construit, pour rendre compte de la nature opératoire de la logique des propositions, un « groupe » de quatre transformations (isomorphe au groupe de Klein), dont l’existence avait échappé aux logiciens : étant donné un opérateur, tel que l’implication (p implique q), on peut : l°l’inverser par négation N (p et non-q) ; 2° le transformer en sa réciproque R (q implique p) ; 3° le transformer en sa duale ou corrélative C (non-p et q) ; et 4° le laisser identique I. On a alors NR = G, CR = N, CN = R et NRC = I. Ce groupe est intéressant du point de vue psychologique, en ce qu’il fusionne en un seul système les deux formes de réversibilité jusque-là séparées (entre 7 et 11-12 ans) : l’inversion N et la réciprocité R. On peut donc admettre qu’il exprime à la fois l’aboutissement naturel des opérations génétiquement antérieures et le point de
[p. 168]départ des opérations propositionnelles se constituant entre 11-12 et 14-15 ans. Or, il se trouve que les schèmes opératoires nouveaux dont il vient d’être question (proportions, etc.) sont précisément tous réductibles à un tel groupe. Le schéma abstrait permet ainsi de découvrir une parenté qui échappait à l’examen « naïf » et non algébrique (1).
En troisième lieu, le schéma abstrait peut fournir des liaisons causales nouvelles là où elles échappaient à l’analyse. On sait, par exemple, que v. Neumann et Morgenstern ont construit à l’usage des économistes un modèle probabiliste dit « théorie des jeux » ou de la décision, permettant de calculer quelle « stratégie » doit adopter un joueur en des situations variées pour obtenir le maximum de gain avec le minimum de perte (critère de Bays) ou pour minimiser au maximum les pertes dues aux astuces de l’adversaire (critère minimax). On peut aussi appliquer ce schéma aux gains et pertes d’information. Or, en reprenant la théorie des seuils de la perception (qui n’avait pas jusque-là fourni d’approximation mathématique suffisante), W. P. Tanner (de Michigan) a réussi une application de la théorie des jeux en adaptant des tables d’imputation à la discrimination des indices objectifs et des « bruits ». Cette réussite suffit alors à modifier l’interprétation causale du phénomène : au lieu de l’expliquer par la simple finesse des enregistrements perceptifs, on fera intervenir des « décisions » au sens d’inférences inductives inconscientes, ce qui constitue un certain retour à Helmholtz…
D’une manière générale, on peut soutenir que l’emploi des schémas abstraits tend à fournir un certain statut de légitimité et de précision aux explications constructives tendant à souligner les activités du sujet. Là où les hypothèses réductionnistes subordonnent le supérieur à l’inférieur, le schéma abstrait, sans contredire en rien la nécessité des liaisons avec l’organisme, dégage par ailleurs la spécificité et la nouveauté des constructions s’effectuant au niveau du comportement et des conduites. Comme, d’autre part, la neurologie (science de faits) ne saurait expliquer pourquoi 2+2 = 4 ni pourquoi A = A (équivalences dont la nécessité ne repose pas sur des faits, mais sur des normes déductives), il reste que les implications de la conscience, tout en correspondant à des liaisons organiques, ne sauraient s’interpréter génétiquement sans le recours à des modèles abstraits dont la nature même relève précisément de la nécessité déductive. Mais ne nous engageons-nous pas alors dans une série de cercles vicieux, puisque ces modèles sont les produits d’une certaine activité consciente et qu’ils sont par ailleurs utilisés par la neurologie dont on attend cependant qu’elle finisse par rendre compte des faits psychologiques ? Ces cercles seraient, en effet, vicieux si la discussion du problème du parallélisme psychophysiologique ne nous permettait pas de préciser leur nature.
(1) Voir le chap. XXIV, Les opérations intellectuelles et leur développement.
IV. Les explications psychologiques
et le problème du parallélisme psychophysiologique🔗
Des exposés qui précèdent, on peut retenir au moins deux conclusions. D’une part, il est indispensable à l’explication psychologique d’assurer de constantes liaisons entre le supérieur et l’inférieur, liaisons dont l’organicisme fournit un modèle irremplaçable, pouvant conduire jusqu’au physicalisme, même si les liaisons en question ne consistent pas en réductions pures et comportent toujours une part d’interactions ou d’assimilations réciproques entre les processus d’échelles différentes. Il est, d’autre part, nécessaire pour interpréter les conduites supérieures, y compris leurs caractères de prise de conscience, de recourir à un certain constructivisme, avec ses exigences techniques (modèles abstraits). Il ne saurait cependant y avoir contradiction entre ces deux conclusions puisque l’indispensable tendance réductionniste n’aboutit jamais à une simple identification du supérieur à l’inférieur et se combine toujours tôt ou tard avec une exigence de construction et puisque, réciproquement, les explications constructivistes ne peuvent pas partir de rien et postulent une liaison continue entre les points d’arrivée et ceux de départ ; au reste, comme on l’a vu, l’interprétation neurologique ou organiciste en vient d’elle-même, par l’affinement de ses explications à recourir à des schémas déductifs ou abstraits, dont la nécessité logique est cependant irréductible aux questions de faits matériels.
Mais il subsiste un grand problème. Ce que nous venons de dire quant au double mouvement de réduction et de construction complémentaires ne présente pas de difficultés majeures tant qu’il s’agit des relations entre l’organisme en tant que physiologique et le comportement en tant qu’observable au dehors et pour ainsi dire matériellement. Par contre les questions se posent en d’autres termes, ou plutôt elles se compliquent par l’adjonction d’une dimension nouvelle, dès qu’intervient la conscience. La prise de conscience joue, en effet, un rôle essentiel dans la succession des étapes ou la hiérarchie des paliers qu’invoque le constructivisme. Du point de vue organiciste ou réductionniste, d’autre part, le réveil, la vigilance, etc., bref l’apparition ou l’intensité de la conscience semblent correspondre à des changements d’états des neurones et du tonus réticulaire. Quel est alors le rapport entre la conscience et les processus organiques ou matériels ?
1° Le problème du parallélisme🔗
Il semble donc inévitable, pour surmonter ces difficultés, de prévoir, en plus des types d’explications réductionnistes ou constructivistes dont l’objectif est de relier les uns aux autres les paliers hiérarchiques dans le sens de leur superposition, une méthode d’interprétation qui rende compte, sur chaque palier ou à partir d’un certain niveau, des relations entre la conscience et l’organisme, autrement dit entre l’aspect extérieur ou matériel du processus en jeu et son aspect interne ou conscient, dans la mesure où celui-ci intervient.
[p. 170]Par exemple, si la vérité de 2 -J- 2 = 4 est impensable, en tant que vérité, en dehors de la conscience du mathématicien (fût-il âgé de 7 ans), il faut bien, pour qu’il reconnaisse cette nécessité, qu’un jeu de connexions neuroniques rende son activité consciente possible ; et le problème se retrouve à tous les niveaux où interviennent des états de conscience, de la perception à la pensée la plus abstraite.
Quelle est alors la nature de cette liaison entre ces connexions physiologiques, et les processus conscients qu’elles sous-tendent ? Est-ce encore une liaison causale et devons-nous introduire à son sujet un nouveau type d’explication à ajouter à la liste des précédents ? Ou devons-nous utiliser d’autres catégories de liaisons et parler de correspondance, de parallélisme ou d’isomorphisme, c’est-à -dire recourir à des modes d’interprétation qui ne constituent plus, à proprement parler, des explications, mais qui se bornent à conférer un statut global d’intelligibilité destiné surtout à favoriser l’analyse sans risque de contradictions ? C’est là l’éternel problème sur lequel ont débouché toutes les formes d’explication en psychologie et que nous retrouvons en comparant simplement ces diverses formes les unes aux autres : en effet, on ne saurait concilier ni même confronter les courants réductionnistes et les tendances constructivistes, sans voir réapparaître ce problème de la conscience, en tant qu’obstacle pour les premiers et que programme de recherche pour les secondes.
Précisons encore que ce problème n’est pas, comme on l’appelle parfois, celui de l’esprit et du corps, mais bien exclusivement celui de la conscience et des structures physiologiques sous-jacentes. Parler d’esprit, c’est, ou bien substantifier la conscience, ce qui revient à préjuger de la solution, ou bien désigner globalement sous ce vocable le concept complexe « activité nerveuse supérieure -f- conscience » et le problème se retrouve alors à l’intérieur de cet « esprit ». G’est pourquoi disputer sur le baptême d’une certaine forme de médecine que les uns appellent « psychosomatique » et les autres « cortico- viscérale » n’est, en général, qu’une dispute verbale : tout le monde est d’accord sur le fait qu’un traitement psychologique peut en certains cas agir sur une affection somatique, mais cela ne tranche en rien la question de savoir si c’est la conscience qui a agi comme cause ou si c’est l’activité nerveuse dont alors le sujet prend simplement conscience.
Cela dit, il n’existe sur le terrain des faits que deux groupes de solutions vérifiables en principe, c’est-à -dire dont on peut attendre que l’expérience permette tôt ou tard de choisir entre elles (ce qui n’est pas encore le cas) : ou bien il y a interaction (causale) entre la conscience et les processus nerveux correspondants, ou bien il s’agit de deux séries parallèles de phénomènes dont l’hétérogénéité exclut qu’ils puissent agir les uns sur les autres. On peut certes prolonger ces hypothèses en thèses métaphysiques, comme l’idéalisme selon lequel tout est conscience ou représentation, mais le même problème se retrouve alors sur ce terrain indûment élargi, puisqu’il reste alors à déterminer les relations entre ces représentations particulières que sont le corps et son système nerveux et les autres représentations qui constituent la conscience elle-même.
2° La solution interactionniste🔗
La solution interactionniste semble confirmée par l’observation courante : lorsqu’un verre de vin nous met en état d’euphorie, on est tenté d’y voir une action directe de l’organisme sur la conscience, et lorsqu’on déplace son bras après l’avoir décidé consciemment, il paraît y avoir action directe de la conscience sur l’organisme. Mais dès que l’on cherche à analyser ces relations causales, dans un sens comme dans l’autre, elles se révèlent proprement incompréhensibles.
En effet, dire en premier lieu que la conscience peut agir sur un processus physiologique signifie qu’elle intervient au sein des relations causales propres à ce processus et qui constituent un cas particulier de causalité physicochimique (sauf à être vitaliste, ce qui consiste alors à reporter sur la « force vitale » toutes les difficultés que nous allons signaler pour la conscience). Mais, que cette causalité soit mécanique (mettre un élément en mouvement, modifier les vitesses ou les trajectoires, etc.), thermodynamique (transformation du type d’énergie, modification de l’entropie, etc.) ou électromagnétique et quantique, elle comporte toujours un système de transformations mesurables et calculables, respectant certains invariants ou principes de conservations, et ces relations causales supposent des masses, des forces ou des énergies sous des formes qui varient selon les échelles mais qui sont toujours astreintes à ces mêmes conditions générales de transformations et conservations composées en un système cohérent. Or, supposer que la conscience intervienne à titre de facteur en un tel système causal implique naturellement qu’on lui confère des propriétés homogènes par rapport à celles du système sur lequel elle est censée agir. La conscience devrait d’abord, à cet égard, présenter une masse : personne ne l’a soutenu sous ce terme, mais le spiritualisme classique faisait de l’esprit une « substance » comparable à celle de la matière (mens agitai molem), et, si la psychologie scientifique a écarté cette notion du domaine de ses conceptualisations, elle réapparaît sous une forme implicite sitôt que l’on admet la possibilité d’une action de la conscience sur un mécanisme matériel. En effet, cette action suppose une force, sous une forme quelconque (force proprement dite, travail, puissance, etc.) ou une « énergie psychique » qui suppose encore des relations entre forces. Or, une force est une quantité mesurable comportant des relations entre les masses, et les vitesses (f = mg, etc.) et parler d’énergie pour dissimuler ces difficultés les décuple en fait, car cela implique les deux conséquences de la transformation des énergies les unes dans les autres et de la conservation de l’énergie, qui sont sans signification dans le cas d’une éventuelle action de la conscience sur le corps. En bref, les deux difficultés majeures d’une telle interprétation sont, d’une part, qu’il n’existe aucune homogénéité entre la cause (conscience) et l’effet (modification organique), et, d’autre part, qu’on ne voit en rien comment un système matériel ainsi modifié par la conscience demeurerait susceptible de respecter les principes de conservation (quelles que soient leur nature et leur échelle), sans parler du second principe de la thermodynamique.
[p. 172]En réalité, lorsqu’on essaie de se représenter une telle action de la conscience sur le corps, on imagine une sorte de doublure matérielle ou éthérée qui sous-tendrait la conscience et agirait par délégation lorsque cette conscience est censée déclencher une action organique. Autant reconnaître alors que ce n’est pas la conscience qui « agit » en ce cas, mais bien le fonctionnement nerveux concomitant. Certes un fonctionnement nerveux s’accompagnant de conscience n’est pas identique à un fonctionnement sans conscience : les travaux électro-physiologiques sur la vigilance, le réveil, etc., montrent, comme déjà dit, que l’apparition ou les changements d’intensité de la conscience correspondent à des modifications de l’état des neurones ou du tonus réticulaire. Et, s’il n’y a pas identité entre ces deux fonctionnements, l’interactionnisme n’est-il pas alors fondé à dire que la conscience modifie donc le fonctionnement ? Le problème du « comment » réapparaît néanmoins : la cause du réveil ou de l’activation de la vigilance est un ensemble d’événements x extérieurs ou intérieurs à l’organisme, qui modifient le fonctionnement nerveux y et l’observation semble montrer que la relation xy ou le processus y s’accompagnent de conscience ; le propre de la conscience est-il en ce cas de « prendre conscience » des causes qui ont modifié le fonctionnement nerveux ou de ce fonctionnement lui-même, donc de la relation xy ou du mécanisme y (ou d’une partie d’entre eux), et s’il en est ainsi la conscience n’est pas cause, mais constitue seulement l’un des aspects d’un processus global (par exemple son aspect intérieur), ou bien elle est elle-même cause, et il faut alors lui prêter des forces, énergies, masses, etc., et nous retombons dans les difficultés précédentes.
En second lieu, l’action causale directe d’un processus organique sur la conscience n’est pas plus compréhensible. Un tel processus consiste en séquences matérielles impliquant des masses, des forces, des résistances, des énergies, etc. Pour que ces séquences matérielles modifient la conscience, il faudrait donc qu’elles trouvent en celles-ci un point d’application dont la nature leur soit homogène, sous la forme du déplacement d’une masse, d’accélération d’un mobile, de diminution des résistances, etc., sinon la modification demeurerait inintelligible. Et effectivement, si un verre de vin nous met en gaîté, cela se traduit par une accélération des associations, par une levée des inhibitions, etc. Mais est-ce là une action exercée « sur la conscience » ou sur un ensemble de liaisons nerveuses dont la conscience se borne à « prendre conscience », selon le rôle que son nom même évoque déjà spécifiquement ?
3° La solution paralléliste🔗
Ges difficultés insurmontables poussent alors la plupart des auteurs à admettre deux séries distinctes de phénomènes, l’une constituée par les états de conscience et l’autre par les processus nerveux concomitants (tout état de conscience correspondant à un tel processus sans que la réciproque soit vraie), et à considérer que le lien entre les termes de l’une des séries et les termes de l’autre n’est jamais un lien de causalité, mais simplement une correspondance, ou, comme on dit généralement, un « parallélisme ». On
[p. 173]peut distinguer en cette seconde solution plusieurs sous-variétés. Par exemple le parallélisme classique était atomistique et cherchait une correspondance éléments à éléments (d’où un concomitant physiologique pour chaque sensation, chaque « association », etc.). La théorie de la Gestalt (voir III, sous B2) parle au contraire d’un principe d’« isomorphisme » en admettant une correspondance de structure à structure. Une autre subdivision (indépendante de la précédente) opposera les auteurs à tendance dualiste (F « esprit » et le corps) et ceux à tendance moniste qui voient dans les deux séries les deux faces d’une même réalité, appréhendée du dedans (conscience) ou du dehors (physiologie). Le monisme organiciste mettra en outre l’accent sur la physiologie et ne verra dans la conscience qu’un « épiphénomène », etc.
Ce second groupe de solutions écarte effectivement les difficultés de l’interactionnisme. Mais, sous la forme où on les présente d’habitude, c’est pour en soulever d’autres et tout aussi graves. En effet, si la conscience n’est que l’aspect subjectif de certaines activités nerveuses, on ne comprend plus du tout quelle est sa fonction, car ces activités suffisent à tout. Qu’un stimulus externe déclenche une réaction adaptative, qu’un problème de haute mathématique soit résolu par le cerveau réel comme par un « cerveau électronique », etc., tout s’explique sans la conscience. On pourrait bien entendu soutenir que le problème est mal posé et que la conscience ne comporte pas plus de signification fonctionnelle qu’une mutation neutre (ou a fortiori léthale) dans le domaine de la génétique biologique. Mais il faut répondre que la conscience obéit à des lois multiples et que, dans la psychogenèse, comme dans la sociogenèse, la construction de conduites de plus en plus complexes s’accompagne, non seulement d’une extension du champ de la conscience, mais encore et surtout d’une structuration toujours plus raffinée de ce champ. Toute l’histoire des sciences, pour ne prendre qu’un exemple, est une histoire des progrès de la connaissance consciente, et cela reste vrai de l’histoire de la psychologie behavioriste (cf. III sous C1), qui fait abstraction de la conscience par un curieux usage de la réflexion consciente.
Au point de vue des recherches proprement psychologiques, l’importance de la conscience se reconnaît à l’exigence de deux groupes de faits. Tout d’abord la conscience se manifeste par une activité qui, si elle n’est pas causale (nous verrons sous V par quelle autre structure elle atteint en fait la nécessité) obéit néanmoins à des lois. Cette activité consiste en « réflexion » et englobe entre autres sous sa forme la plus générale ce que l’on a appelé la « prise de conscience ». Claparède, qui était fonctionnaliste en a formulé une loi selon laquelle la prise de conscience naît à l’occasion des désadaptations : il a montré à cet égard que les jeunes enfants, à l’âge où ils généralisent à outrance et sans contrôle, ont plus de peine à trouver, étant donné deux objets (par exemple une abeille et une mouche), leurs caractères communs (le fait d’avoir des ailes, etc.) que leurs différences (que l’une pique et l’autre pas) ; la raison en est, disait-il, que les ressemblances traduisent la généralisation, qui pour ces sujets est aisée et par conséquent peu consciente, tandis que les différences constituent des obstacles à cette généralisation et pro-
[p. 174]voquent donc une prise de conscience en raison de ces désadaptations. Nous avons préféré soutenir (1), d’un point de vue structuraliste, que la prise de conscience procède de la périphérie au centre, c’est-à -dire des résultats de l’acte (achevés ou encore en désadaptation) à ses mécanismes intimes, d’où entre autres le caractère tardif de la prise de conscience des opérations (on prend conscience des nombres ou des classes avant d’apercevoir les opérations additives qui les engendrent, etc.) : la conscience n’est ainsi nullement centrifuge ou centrale, comme le croyait l’introspection philosophique classique, mais bien centripète ou rétrospective !
Le second groupe de faits est révélé par les travaux actuels sur la vigilance, etc., auxquels nous avons déjà fait allusion. Il en résulte un intérêt général pour les problèmes de la conscience, et, même dans la perspective du matérialisme dialectique où la vie mentale passe pour un « reflet » du réel, la conscience est considérée comme présentant une fonction particulière : celle d’un « reflet des reflets » ou d’un reflet à la seconde puissance (Léontief).
Si la conscience présente ainsi des activités spécifiques, on ne saurait la réduire au rang d’épiphénomène. Il subsiste donc un problème et pour que la solution consistant à admettre deux séries « parallèles » ou isomorphes satisfasse réellement notre besoin de compréhension, il serait désirable que l’une des deux séries ne perde pas toute signification fonctionnelle, mais que l’on saisisse au minimum en quoi ces séries hétérogènes et sans interaction causale sont néanmoins complémentaires et indispensables l’une et l’autre au fonctionnement de la vie mentale.
V. L’isomorphisme entre la causalité
et l’« implication »🔗
Les sciences plus avancées que la nôtre en sont venues depuis longtemps à comprendre que, en cas de problèmes insolubles ou de crises, les progrès sont ordinairement assurés par un examen rétroactif des notions utilisées et de leur portée, donc par une critique épistémologique interne (et indépendante de la philosophie). C’est ce qu’il convient de faire en présence du problème de la conscience et du corps, car ce qui est gênant dans l’idée de parallélisme est assurément qu’elle paraît impliquer deux sortes d’activités comparables puisque parallèles et néanmoins indépendantes puisque sans interaction entre elles. A supposer, au contraire, que les liaisons causales propres à l’organisme correspondent, dans la conscience, à des liaisons d’une toute autre nature qui puissent porter également sur les faits et à l’occasion sur les mêmes faits, mais en termes de constatations, évaluations et de liaisons logiques (y compris prélogiques) ou axiologiques, et non pas de causalité, en ce cas l’isomorphisme (mais au sens d’une correspondance des structures abstraction faite des contenus) serait à chercher entre deux séries d’événements complémentaires mais décrits en des langages essentiellement difïé-
(1) Voir La prise de conscience, Presses Universitaires de France, 1974.
[p. 175]rents et l’on n’éprouverait plus le sentiment désagréable de deux séries analogues dont l’une est inutile et ne constitue que la duplication ou le miroir de l’autre. En un mot, le corps agirait causalement, indépendamment de la conscience, comme le monde physique obéit à ses lois indépendamment des individus, artistes ou même savants qui le contemplent, tandis que la conscience exprimerait ses représentations et ses sentiments selon ses propres moyens à la manière de ces observateurs humains du réel ; en effet jusque sur les terrains où l’homme modifie la nature ou l’inverse, il subsiste une dualité entre le réel et l’idée qu’on s’en donne, et, de même, jusqu’en ces régions où un fonctionnement nerveux accompagné de conscience diffère d’un fonctionnement sans conscience, il demeure une dualité fondamentale de structure entre ce qu’aperçoit cette conscience, ou la manière dont elle l’organise, et ce qui se produit causalement dans les séquences matérielles représentées et senties. Mais, et ceci reste essentiel, malgré ce dualisme il peut y avoir isomorphisme, et même de plus en plus poussé à partir des formes globales initiales jusqu’aux formes rationnelles ou esthétiques supérieures, puisque entre la causalité que l’esprit découvre ou reconstitue dans le réel et les modes de liaisons spécifiques que nous allons être conduits à attribuer à la conscience, il s’établit une correspondance d’abord plus ou moins vague mais dans la suite de plus en plus précise. C’est donc en termes épistémologiques qu’il convient maintenant de poursuivre notre analyse, en partant de l’hypothèse que, pour atteindre la nature du « parallélisme » existant entre les séquences causales propres aux processus physiologiques en tant que matériels et les séquences conscientes il faut d’abord dégager les isomorphismes possibles entre les concepts servant à atteindre les premières et les modes de liaisons propres aux secondes.
1° États de conscience et causalité🔗
Nous avons vu (IV, 2) qu’il est dénué de signification d’appliquer la notion de causalité aux liaisons entre un processus physiologique et la conscience que l’on en peut prendre parce que, à vouloir serrer de près les conditions d’une relation causale, on ne voit plus sur quel point de la conscience, puisqu’elle n’est pas spatiale, ni de quelle manière, puisqu’elle ne comporte ni masses ni résistance, s’appliqueraient les forces matérielles en jeu dans la causalité physique. Mais il faut dire plus maintenant : c’est que l’action, qui cette fois est indéniable, de la conscience sur elle-même, autrement dit d’un état de conscience sur un autre état de conscience, ne relève pas, elle non plus, de la catégorie de causalité. Seulement rappelons bien, d’abord, que nous ne parlons ici (IV et V) que de la seule conscience et non pas du comportement ou de la conduite en général, dont la prise de conscience ne constitue qu’un aspect limité et souvent très restreint : sans quoi ce que l’on vient de dire et ce qui va suivre paraîtrait à juste titre contradictoire avec ce qui précède (I à III), puisque nous avons précisément cherché à analyser les principaux types d’explication causale utilisés par la psychologie des conduites. De plus, en ce qui concerne la conscience comme
[p. 176]telle, et dissociée du contexte général de la conduite, il est naturel que, de même que le sens commun et l’enfant commencent par animer ou psycho- morphiser le monde physique (finalisme, etc.), de même la tendance initiale et précritique ou « naïve » sera de matérialiser la conscience, c’est-à -dire de la concevoir au moyen des notions tirées de l’expérience physique courante, dont celles de substance et de cause. C’est pourquoi il faut se demander si les principales difficultés du problème du parallélisme ne sont pas nées du fait que l’on n’a pas suffisamment précisé quelles sont les notions spécifiques applicables à la seule conscience et que l’on a sans cesse utilisé à leur place les modes de liaison qui s’adaptent plus ou moins complètement à la causalité matérielle (physique ou physiologique) mais qui n’ont peut-être aucun sens dans le cas des « états de conscience » et pas davantage dans celui des structures conscientes (concept, valeurs), donc de la prise de conscience que l’on prend des structures sous-jacentes.
C’est en effet une chose remarquable que l’imprudence avec laquelle beaucoup de grands psychologues se sont servis de concepts physiques pour parler de la conscience. Janet a employé les mots de « force de synthèse » et de « force psychologique ». L’expression d’« énergie psychique » est fréquente et celle de « travail » est banale. Or, de deux choses l’une : ou bien l’on se réfère implicitement à la physiologie, et il reste à préciser, notamment à mesurer, ou bien l’on parle bien de la conscience, et l’on est en pleine métaphore faute de toute définition de ces concepts comparable à celles qu’on utilise sur le terrain des lois et de la causalité physiques. Ces concepts supposent tous, en effet, directement ou indirectement, la notion de masse ou substance, qui n’a aucun sens sur le terrain de la conscience.
Nous pouvons donc préciser ces remarques préalables en disant que la notion de causalité ne s’applique pas à la conscience. Ce concept s’applique certes au comportement et même aux conduites, d’où les différents types d’explication causale que nous avons distingués. Mais il n’est pas « relevant » sur le terrain de la conscience comme telle, car un état de conscience n’est pas « cause » d’un autre état de conscience, mais l’entraîne selon d’autres catégories. Seuls, parmi nos sept formes reconnues d’explication, les modèles abstraits (sous C3), s’appliquent aux structures conscientes, précisément parce qu’ils peuvent faire abstraction de ce que nous avons appelé un « substrat » réel ; mais, pour qu’il y ait causalité il faut que la déduction s’applique à un tel substrat, et ce qui distingue le substrat comme tel de la déduction elle-même est qu’il se représente en termes matériels (même lorsqu’il s’agit du comportement et des conduites). De plus (et c’est la vérification de ce que nous avançons maintenant), les difficultés de l’interactionnisme proviennent justement de ce qu’il a cherché à étendre le domaine de la causalité à la conscience elle-même.
2° États de conscience et implication🔗
Dès lors, si aucune des notions constitutives de la causalité physique, sauf le temps et la vitesse, ne s’applique aux faits de conscience, et surtout pas celle de la substance (la seule dont la psychologie expérimentale ait refusé
[p. 177]l’héritage lors de la lourde succession que lui a laissée la psychologie philosophique), il n’y a plus qu’à choisir entre les deux termes de cette alternative : ou bien la conscience n’est rien, ou bien elle relève de catégories originales et spécifiques, qu’ignorent en eux-mêmes les faits matériels. Or ces catégories existent. Nous allons commencer par les décrire dans les états de conscience inhérents aux conduites supérieures, car ils se présentent alors sous leurs formes les plus caractéristiques, puis nous remonterons aux états plus élémentaires pour voir si l’on en retrouve l’équivalent en des formes plus générales.
Sur le terrain de l’intelligence, le mode essentiel de liaison propre à la conscience logique est l’implication (en des sens d’ailleurs variés) selon laquelle une ou plusieurs affirmations en entraînent nécessairement une autre. Par exemple la vérité de 2 + 2 = 4 n’est pas « cause » de la vérité de 4 — 2 = 2 comme le choc d’une boule de billard contre une autre est cause de sa mise en mouvement ou comme un stimulus est l’une des causes d’une réaction : la vérité (nous disons bien la vérité car ce mot se réfère explicitement à la conscience de l’auteur du jugement) de 2 + 2 = 4 « implique » celle de 4 — 2 = 2, ce qui est tout autre chose. En effet, cette implication se caractérise par un sentiment de nécessité qui est bien différent d’une détermination causale, car celle-ci ne souffre pas d’exception, tandis que la nécessité constitue une obligation que l’on doit respecter : or ce n’est pas toujours ce que l’on fait, si bien que le logicien Lalande énonçait l’implication en disant « p implique q pour l’honnête homme » de manière à souligner son caractère normatif. De même la valeur d’un but « entraîne » celle des moyens à employer, cette implication des valeurs doublant, dans la conscience, la série causale des actions de moyen à but sans s’y réduire pour autant. Dans le cas des sentiments moraux, la reconnaissance à une règle oblige à telle application et cette obligation (ou nécessité morale analogue à celle de l’implication) est ressentie même si elle est violée. En droit Kelsen a appelé « imputation » la relation entraînant la validité d’un acte juridique à partir d’une règle plus générale et il insiste sur le fait que cette imputation relève du devoir être (sollen) et non pas du fait (sein), etc.
Or, nous prétendons que, si haut que l’on remonte vers les états de conscience les moins évolués, on retrouve des relations de ce type. En effet, le caractère sans doute le plus général de la conscience est de comporter des « significations », d’aspects cognitifs (se référant aux catégories de vérité et de fausseté) ou affectif (valeurs) ou, plus vraisemblablement, des deux à la fois. Ces significations correspondent dans la conduite à l’existence de schèmes d’assimilation : un objet perçu par un nourrisson est ainsi conçu comme une chose « à saisir », ou « à balancer », etc. Mais, du point de vue du comportement matériel, cette assimilation n’est qu’un rapport causal entre l’objet qui déclenche une réaction et le schème d’action permettant de l’intégrer en une variété particulière de réactions : il n’y a donc pas dans ces stimulations et mouvements de « significations » sauf pour l’observateur. Par contre, si le sujet prend conscience de cette intégration à un schème familier, elle se traduit alors par cette catégorie spécifique qu’est la « signification » attribuée
[p. 178]aux perceptions et mouvements en jeu. D’autre part, la relation entre significations est, sous une forme très générale, une relation d’implication : la distance proche où est localisé l’objet perçu « implique » la possibilité de le saisir, sa position suspendue « implique » le pouvoir de le balancer, etc. Claparède disait même que pour le chien de Pavlov le son de la cloche « implique » la nourriture, ce qui est vrai si le chien en prend conscience, mais ne peut se traduire que dans le langage causal des schèmes s’il n’en a pas conscience. Nous appellerons « implication au sens large » ou plus précisément « implication signifiante » cette relation générale, dont l’implication logique ne constitue qu’un aboutissement particulier, et cette implication signifiante commande la relation elle-même de signifiant à signifié intervenant dans les catégorisations ou désignations, dès le niveau perceptif. Or, ni le lien entre significations, ni la relation de signifiant à signifié ne relèvent de la causalité : notre hypothèse est donc que le mode de connexion propre aux phénomènes de conscience n’est autre que l’implication signifiante, dont les formes supérieures signalées plus haut constituent des cas spéciaux.
Ainsi présentée, l’activité de la conscience n’a plus rien de négligeable. Par exemple, la totalité des sciences déductives (logique et mathématiques), les beaux-arts, la morale et le droit s’appuient sur les diverses formes d’implication consciente, et si le système nerveux est parfaitement apte à les rendre possibles, puisqu’effectivement il engendre causalement leur substrat matériel, il reste qu’il faut une conscience pour juger des vérités et des valeurs, c’est- à -dire pour atteindre les implications comme telles qui les caractérisent spécifiquement.
3° L’isomorphisme entre la causalité et l’implication🔗
Nous sommes de la sorte en mesure de revenir au problème du parallélisme psychophysiologique, l’hypothèse étant alors que le parallélisme entre les états de conscience et les processus matériels concomitants revient à un isomorphisme entre les systèmes d’implications signifiantes et certains systèmes relevant de la causalité.
Remarquons d’abord que, ainsi présentée, la question du parallélisme n’est pas spéciale à la psychologie mais se retrouve, quoiqu’en des termes bien différents, dans le problème central qu’ont étudié, depuis leurs origines jusqu’à nos jours, toutes les grandes doctrines épistémologiques : celui de l’accord entre les mathématiques et la réalité physique. En effet, les mathématiques et la logique constituent un vaste système d’implications et cependant ces abstractions conceptuelles dans lesquelles le positivisme logique ne veut voir qu’un langage et même tautologique (thèses que nous n’avons point à discuter ici) suffisent à exprimer les lois connues de la physique ainsi que leurs relations causales. Cela ne prouve encore rien quant aux rapports entre la conscience et les processus physiologiques, puisqu’il s’agit ici de ses relations avec le monde physique extérieur et surtout puisque la logique et les mathématiques représentent une forme supérieure et très élaborée de réflexion consciente. Mais cela montre, et c’est là un premier point important,
[p. 179]qu’entre un système d’implications et des systèmes de nature causale il peut y avoir isomorphisme étroit.
En second lieu, il convient de rappeler que le problème du parallélisme psychophysiologique ne se pose plus exactement dans les mêmes termes depuis que l’on se place au point de vue de la prise de conscience et de ses progrès au cours du développement : au lieu d’être la même à tout âge, la conscience s’accroît donc vraisemblablement en extension et en structuration. Il s’ensuit que, partant sans doute des seuls résultats de quelques actions sans atteindre leur mécanisme intime, la conscience remonte peu à peu à certains aspects de leur mécanisme en atteignant plus ou moins les régions où celui-ci dépend à la fois des structures du comportement et de leurs interactions avec les processus physiologiques. Il faut donc concevoir l’isomorphisme entre les implications signifiantes et la causalité propre au comportement psychophysiologique comme s’établissant graduellement selon une marche progressive et non pas comme une donnée statique identique à elle- même à tous les stades du développement.
Pour démontrer notre hypothèse il faudrait disposer de faits vérifiables et ne pas se borner à raisonner dans l’abstrait. Nous n’en sommes pas là , mais dans l’état actuel des connaissances trois sources d’informations sont déjà à notre disposition, relatives les unes aux analyses électrographiques de la vigilance, etc., les secondes aux données de la mécanophysiologie et les troisièmes au mécanisme même de l’équilibration.
Pour ce qui est des premières, s’il se confirme qu’un fonctionnement physiologique s’accompagnant de conscience diffère d’un fonctionnement sans conscience (modifications de l’état des neurones ou du tonus réticulaire lors du réveil ou de changements d’intensité de la conscience), rien n’exclut alors qu’il existe un (ou plusieurs) système neurologique restreint S correspondant à la conscience C et dont les fonctions propres de régulation, par rapport à l’ensemble du système nerveux ou à l’organisation physiologique en général, seraient assez exactement celles que les interactionnistes attribuent à la conscience elle-même C, lorsqu’ils admettent qu’elle agit directement sur le corps. Si c’était le cas (que le système S corresponde à des organes « localisables » ou à des interactions fonctionnelles complexes, peu importe), tout le problème se réduirait alors à celui des relations entre la conscience C et ce système S en tant que physiologique : sur ce terrain l’isomorphisme des implications signifiantes en C et des relations causales en S serait plus étroit qu’en général et, dans ce secteur délimité, une hypothèse moniste partielle serait presque permise, selon lequel les systèmes S et C ne seraient plus que les deux faces, extérieure (causale) ou intérieure (implicatrice) d’une même réalité.
Quant aux données mécanophysiologiques, les machines « imitant » le travail du cerveau et de la pensée nous fournissent de remarquables exemples d’isomorphisme entre l’implication logico-mathématique et une causalité proprement mécanique ou électrique pouvant présenter quelque rapport avec la causalité physiologique. Un « cerveau artificiel » est, en effet, capable, non seulement de mener à bien des calculs d’une complexité étonnante, mais
[p. 180]même de trouver de nouvelles démonstrations (1). Chacune des opérations qu’il utilise est isomorphe à une opération logique ou mathématique et il y a donc isomorphisme complet entre le système des opérations conscientes et le système mécanique. Mais il reste cette différence : le mathématicien juge de la vérité et de la fausseté des propositions et évalue donc sans cesse la validité des propositions et celle de leurs connexions, procédant ainsi par implications ; la machine au contraire se borne à produire des résultats, qui ont une signification exacte du point de vue de son constructeur, mais auxquels elle demeure elle-même indifférente parce que strictement déterminée et ne procédant que par simple causalité. Il est vrai qu’elle est capable de corrections et de régulations (feed-backs), mais à nouveau sans évaluation et en fonction des seuls résultats déterminés causalement par sa programmation. Or, il n’y a pas là qu’une différence objectivement négligeable : le mathématicien fait de la science en vertu de la validité de ses implications, tandis que la machine fabrique causalement avec le même détachement qu’un caillou prenant la forme d’un beau cristal si les conditions données l’y contraignent.
On comprend donc pourquoi les connexions neuroniques dont McCulloch a montré l’isomorphisme avec les opérateurs propositionnels peuvent bien aboutir à la fabrication causale d’une combinaison isomorphe à 2 + 2 = 4, sans produire pour autant une vérité nécessaire puisque la nécessité logique ne relève pas d’une question de fait, mais de l’obligation consciente inhérente aux implications. On peut ainsi concevoir un isomorphisme complet entre le système causal des liaisons nerveuses ou du comportement, aboutissant par prises de conscience (abstractions réfléchissantes) et équilibrations successives à la construction de structures de « groupes », de « réseaux », etc., et le système conscient des implications et des jugements utilisant les mêmes structures à titre d’instruments de validation et de déduction, sans que ce système conscient perde pour autant son originalité ni sa spécificité fonctionnelle (il met d’ailleurs 12 à 15 ans à se construire à partir de la naissance).
Ces remarques nous conduisent au troisième groupe de faits, qui sont sans doute les plus parlants quant à l’isomorphisme des implications conscientes et de la causalité physiologique : c’est le parallélisme, s’imposant assez clairement entre le processus causal et séquentiel de l’équilibration (voir plus haut p. 1-163), qui physiologiquement consiste en une suite de régulations ou d’autorégulations, et le processus conscient de la cohérence progressive des jugements, traduisant la réversibilité opératoire croissante des structures logico-mathématiques sous-jacentes. La réversibilité des opérations n’est pas autre chose, en effet, que l’expression implicatrice, propre à la pensée, d’un processus causal d’équilibration, puisque l’équilibre
(1) Une machine a récemment démontré un théorème d’Euclide d’une manière qu’on a honte d’avouer nouvelle. Soit un triangle isocèle ABC dont B est le sommet et les côtés AB = BC. A démontrer que l’angle BAC égale l’angle ACB. Euclide traçait une bissectrice, etc. La machine, questionnée, a simplement répondu : le côté AB égale le côté CB en partant du même point B ; le côté AC est commun aux deux angles considérés, donc BAC = ACB parce que pouvant être appliqués symétriquement l’un sur l’autre.
[p. 181]est un système de compensations entre des « travaux » réels ou « virtuels » et qu’un système d’opérations conscientes traduit précisément ces « travaux » en termes de transformations réversibles effectives ou possibles. Nous avons vu (III sous 6°) comment on peut expliquer causalement le développement intellectuel en invoquant une suite de paliers d’équilibres dont chacun devient le plus probable en fonction du précédent, en vertu d’un jeu de corrections ou de compensations progressives aboutissant à une organisation toujours plus large et plus stable. Or, aux feed-backs (et quelle que soit leur nature) qui constituent la structure causale d’un tel système en développement correspondent dans la conscience les liaisons implicatrices introduisant dans la pensée une cohérence croissante, au point que l’on peut en venir à considérer les opérations comme constituant en chaque secteur le terme de ces suites de régulations (donc comme des régulations « parfaites » au sens cybernétique, substituant la précorrection des erreurs à leurs corrections après coup). Un tel modèle dont il reste bien entendu à préciser les mécanismes d’un point de vue à la fois algébrique (filiation des systèmes) et cybernétique conférerait alors à la notion de structure (ou aux diverses structures puisque chacune résulte d’une genèse à partir des précédentes) une double nature : causale, pour ce qui est de leur formation dans le comportement ainsi que de leur fonctionnement cérébral, et implicatrice pour ce qui est des notions, jugements et raisonnements qu’en tire le sujet dans sa pensée consciente, ces deux natures comportant l’une comme l’autre un constructivisme continu, puisque la causalité cybernétique à boucles comme les structures opératoires de caractère implicatif conduisent toutes deux à des autoorganisations sans cesse renouvelées.
Remarque finale. — Ce constructivisme devrait pouvoir être attribué à la conscience elle-même, qui, comme déjà dit, se modifie profondément avec l’âge. Or, nous nous trouvons ici en présence d’une série d’inconnues, de telle sorte que l’on éprouve, en 1974, un réel malaise à se servir d’un vocabulaire usuel mais périmé lorsque l’on parle de « la » conscience ou de ses « états », etc., alors que seul le processus de la « prise de conscience » se prête à l’analyse en tant que solidaire d’une conceptualisation de l’action propre par le sujet. Ce que nous ne savons pas c’est en effet si, antérieurement à ce mécanisme formateur, il pourrait exister des états momentanés et locaux de conscience non intégrés en un système. Le problème central à cet égard, dont nous n’avions heureusement pas à traiter en ce chapitre, puisqu’il est sans solution possible actuellement, est celui des débuts de la conscience, antérieurement à tout langage. Mais qu’il existe divers paliers de conscience semble presque évident, même chez l’adulte : tirer sa montre une minute après l’avoir déjà fait et reconnaître alors l’heure déjà connue prouve que cette première lecture était elle aussi consciente, puisqu’il y a ensuite récognition, et cependant non intégrée puisqu’une minute après il n’y a déjà plus conscience. Il est donc fort probable que la « subception » est de telle nature ainsi que bien des formes de l’inconscient, plus proches de l’implication que de la causalité, en particulier le « préconscient » appelé à devenir
[p. 182]conscient. G’esÜ donc à l’intérieur de l’action sensori-motrice elle-même que l’on retrouve un isomorphisme entre l’implication et la causalité, la première concernant la forme déjà logique des schèmes et des coordinations, s’accompagnant tôt ou tard de conscience à des degrés divers d’intégration (mais sans, donc, que nous ne sachions rien des débuts de cette conscience), et la seconde se rapportant aux aspects matériels de l’action. La difficulté de savoir quand et comment apparaît la conscience et ce que sont ses paliers ou ses formes antérieurement à l’intégration conceptualisante qui est la « prise de conscience » ne contredit ainsi pas l’interprétation proposée quant aux rapports généraux de l’implication et de la causalité, mais soulève d’autres problèmes actuellement sans solution. On aurait certes pu parler de « vie mentale » partout où nous avons dit « conscience », et l’opposer à la « vie organique », mais cela ne résout en rien les questions en suspens, et le principal caractère de cette vie mentale étant de tendre à la conscience, il nous a paru préférable de nous centrer sur celle-ci, quitte à y englober tout ce qui la prépare dans le schématisme de l’action ou du « savoir-faire » : il reste, en effet, que les domaines où les rapports entre les activités mentales du sujet et leurs conditions organiques, donc entre la psychologie et la physiologie, présentent les plus grandes différences et exigent ainsi les précautions méthodologiques les plus systématiques, sont bien ceux de la pensée la plus consciente d’elle-même et c’est pourquoi, malgré les embûches du vocabulaire courant, nous n’avons parlé que de « conscience ».
VI. Conclusions🔗
Il nous reste à comprendre les relations entre ce que nous avons vu de l’explication en psychologie (I-III) et ce que semble comporter cet isomorphisme entre l’implication consciente et la causalité physiologique.
Or, l’explication causale suppose (voir II) trois moments essentiels : 1) l’établissement des lois ; 2) leur déduction au moyen de structures logico- mathématiques ; et 3) l’insertion de cette déduction en un modèle lui servant de substrat réel et permettant la reconstruction, matérielle ou conceptuelle (mais en ce cas en termes de représentation concrète), du phénomène à expliquer. En un mot l’explication causale constitue une assimilation du donné expérimental à des structures opératoires, mais, tandis qu’au cours de l’établissement des lois ces opérations sont simplement « appliquées » aux objets pour en dégager les relations, la causalité proprement dite débute lorsque ces mêmes opérations sont, bien plus concrètement, « attribuées » aux objets, alors conçus comme de véritables opérateurs jouant entre eux le jeu opératoire indépendamment du sujet. Toute l’histoire de la causalité physique, depuis les compositions à la fois additives et spatiales de l’atomisme grec jusqu’aux modèles de « groupes », etc., de la physique contemporaine semble vérifier une telle interprétation.
Cela rappelé, il est clair que l’explication causale comporte deux sortes d’éléments. Ce sont, d’une part, les propriétés de l’objet, que l’explication
[p. 183]cherche à serrer de plus en plus près par l’établissement des lois et par la construction d’un modèle adéquat dont les approximations successives sont imposées par l’existence. Mais l’objet n’est qu’une limite (au sens mathématique) jamais entièrement atteinte, et dont on se rapproche indéfiniment par les progrès d’une objectivité qui est un processus et non pas un état. Il intervient donc d’autre part, et nécessairement aussi, une activité du sujet, en jeu dans la déduction des lois, conditionnelle également de la construction du modèle (et même sur le terrain psychophysiologique il ne faut pas oublier que, quand on parle du corps et des mécanismes nerveux ou organiques, il s’agit toujours de notions en partie relatives à l’état de la physiologie contemporaine). Cette collaboration nécessaire et indissociable des apports expérimentaux et de la déduction du théoricien, montre alors que dès l’élaboration de l’explication causale il intervient un isomorphisme, mais recherché et voulu, entre la causalité propre aux objets (en tant qu’ils sont conçus comme des opérateurs indépendants du sujet) et l’implication propre à la conscience du sujet, puisque la déduction est un cas particulier des systèmes d’implications. Cet isomorphisme intérieur à l’explication causale elle-même est, bien entendu, d’un type raffiné puisque inhérent à des théories proprement dites, mais la conscience commune, et à tous les niveaux, ne fait pas autre chose que s’engager sur des voies analogues, puisque la conscience est toujours signification ou interprétation, et non pas miroir pur et simple comme le croyait la psychologie introspective d’antan.
Rappelons encore que ces remarques permettent de mieux comprendre le succès croissant actuel des modèles abstraits dans les explications cherchées par la psychologie contemporaine. Des sept types d’explication que nous avons distingués (sous III), les six premiers (A à C2) sont, en effet, centrés sur des modèles matériels ou concrets (causalité proprement dite) et ne diffèrent les uns des autres que par la variété des modèles ou substrats réels envisagés. Au contraire les modèles abstraits (C3) se distinguent surtout par le mode de déduction utilisé (moment 2 de l’explication) et sont donc centrés sur l’implication déductive, d’où leur application possible aux structures conscientes (application d’ailleurs naturellement non exclusive puisque cette déduction abstraite peut s’appliquer aussi bien à des substrats réels, moment 3, en vertu du principe d’isomorphisme).
Les résultats essentiels de notre analyse sont donc : a) que les directions dominantes et privilégiées de l’explication en psychologie sont la réduction organiciste et l’interprétation par modèles abstraits ; et b) que ces deux orientations organiciste et déductive ne sont nullement contradictoires, mais complémentaires. Seulement nous n’avons justifié jusqu’ici cette complémentarité qu’en constatant combien chaque type d’explication se réfère, d’une part, à un organicisme explicite ou implicite tout en débouchant, d’autre part, sur des modèles abstraits ; et en ajoutant également que plus la neurologie devient ou deviendra exacte plus elle aura besoin de modèles déductifs. Nous pouvons maintenant interpréter cette complémentarité en la fondant sur des raisons plus profondes : si le parallélisme entre les faits de conscience et les processus physiologiques tient bien à un isomorphisme
[p. 184]entre les systèmes implicatifs de significations et les systèmes matériels d’ordre causal, il est alors évident que ce parallélisme entraîne également, non pas seulement une complémentarité, mais en fin de compte un espoir motivé d’isomorphisme entre les schémas organicistes et les schémas logico- mathématiques utilisés par les modèles abstraits.
Encore un mot. L’analyse tentée (sous IV et V) des relations entre les structures de la conscience et de celle de l’organisme semble montrer qu’il existe une certaine continuité entre les types d’explication utilisés par la psychologie scientifique et les interprétations spontanées propres à la conscience, puisque celles-ci utilisent déjà les notions de signification et d’implication signifiante. Il y a certes là un hommage rendu à la conscience, mais ce n’est pas pour autant un blanc-seing offert à l’introspection, car il convient encore de distinguer la conscience élémentaire centrée sur un « moi » et la conscience décentrée que s’efforcent de constituer la pensée opératoire et la science. Or le défaut de l’introspection est que le moi la domine avec système et que quand ce moi est celui d’un philosophe il peut être habile et puissant. La psychologie est de plus en plus ouverte aux problèmes de la conscience, mais lorsqu’elle l’utilise à des fins de connaissance, elle s’efforce de respecter les règles de la décentration.
Bibliographieđź”—
Apostel (L.), Logique et apprentissage, Éludes d’Épistém. génét., vol. VIII (Logique, apprentissage et probabilité), 1959, pp. 1-138.
Berlyne (D. E.), Les équivalences psychologiques et les notions quantitatives, Études d’Épisl. génét., vol. XII (Théorie du comportement et opérations), 1960, pp. 1-103.
Bush (R. R.), Mosteller (F.), Stochastic Models for learning, Wiley & Sons, 1955.
Fessard (M.-A.) et Gastaut (H.), Corrélations neuro-physiologiques de la formation des réflexes conditionnels, in Le conditionnement et Vapprentissage, Paris, Presses Universitaires de France, 1958.
Gouin-Decarie (Th.), Intelligence et affectivité chez le jeune enfant, Neuchâtel et Paris, Delachaux & Niestlé, 1962.
Hull (C. L.), Principles of behavior, New York, Appleton Century Crofts, 1943.
Janet (P.), De l’angoisse à l’extase, vol. II, Paris, Alcan, 1926.
KOhler (W.), Wallach (H.), Figurai after effects, Proc. Amer. Philos. Soc., vol. 88, 1944, pp. 269-357.
Lévi-Strauss (Cl.), Les structures élémentaires de la parenté, Paris, Presses Universitaires de France, 1949.
Lorenz (K.), Vergleichende Verhallenslehre, Vienne.
McCulloch (W. S.), Pitts (W.), A logical calculus of the ideas immanent in nervous activity, Bull. math. Biophys., vol. V, 1943, pp. 45-133.
Piaget (J.), Épistémologie des sciences de l’homme, Gallimard, 1972.
Piaget (J.), L’équilibration des structures cognitives, Études d’épistém. génét., vol. XXXIII, 1975.
Piaget (J.), The problem of consciousness in child psychology in Problems of consciousness, Confér. Macy Foundat., New York, t. IV, 1953, pp. 136-177.
Rapaport (D.), The Theory of attention Calhexis faisant partie d’écrits divers distribués sous forme multicopiée (1960).
Spearman (Ch.), The nature of intelligence, Londres, 1923.
Tanner (W. P. Jr.), Swets (J. A.), A decision-making theory of human détection, Psychol. Rev., vol. 61, 1954, pp. 401-409.